912 resultados para Set of Weak Stationary Dynamic Actions
Resumo:
Objective To design, develop and set up a web-based system for enabling graphical visualization of upper limb motor performance (ULMP) of Parkinson’s disease (PD) patients to clinicians. Background Sixty-five patients diagnosed with advanced PD have used a test battery, implemented in a touch-screen handheld computer, in their home environment settings over the course of a 3-year clinical study. The test items consisted of objective measures of ULMP through a set of upper limb motor tests (finger to tapping and spiral drawings). For the tapping tests, patients were asked to perform alternate tapping of two buttons as fast and accurate as possible, first using the right hand and then the left hand. The test duration was 20 seconds. For the spiral drawing test, patients traced a pre-drawn Archimedes spiral using the dominant hand, and the test was repeated 3 times per test occasion. In total, the study database consisted of symptom assessments during 10079 test occasions. Methods Visualization of ULMP The web-based system is used by two neurologists for assessing the performance of PD patients during motor tests collected over the course of the said study. The system employs animations, scatter plots and time series graphs to visualize the ULMP of patients to the neurologists. The performance during spiral tests is depicted by animating the three spiral drawings, allowing the neurologists to observe real-time accelerations or hesitations and sharp changes during the actual drawing process. The tapping performance is visualized by displaying different types of graphs. Information presented included distribution of taps over the two buttons, horizontal tap distance vs. time, vertical tap distance vs. time, and tapping reaction time over the test length. Assessments Different scales are utilized by the neurologists to assess the observed impairments. For the spiral drawing performance, the neurologists rated firstly the ‘impairment’ using a 0 (no impairment) – 10 (extremely severe) scale, secondly three kinematic properties: ‘drawing speed’, ‘irregularity’ and ‘hesitation’ using a 0 (normal) – 4 (extremely severe) scale, and thirdly the probable ‘cause’ for the said impairment using 3 choices including Tremor, Bradykinesia/Rigidity and Dyskinesia. For the tapping performance, a 0 (normal) – 4 (extremely severe) scale is used for first rating four tapping properties: ‘tapping speed’, ‘accuracy’, ‘fatigue’, ‘arrhythmia’, and then the ‘global tapping severity’ (GTS). To achieve a common basis for assessment, initially one neurologist (DN) performed preliminary ratings by browsing through the database to collect and rate at least 20 samples of each GTS level and at least 33 samples of each ‘cause’ category. These preliminary ratings were then observed by the two neurologists (DN and PG) to be used as templates for rating of tests afterwards. In another track, the system randomly selected one test occasion per patient and visualized its items, that is tapping and spiral drawings, to the two neurologists. Statistical methods Inter-rater agreements were assessed using weighted Kappa coefficient. The internal consistency of properties of tapping and spiral drawing tests were assessed using Cronbach’s α test. One-way ANOVA test followed by Tukey multiple comparisons test was used to test if mean scores of properties of tapping and spiral drawing tests were different among GTS and ‘cause’ categories, respectively. Results When rating tapping graphs, inter-rater agreements (Kappa) were as follows: GTS (0.61), ‘tapping speed’ (0.89), ‘accuracy’ (0.66), ‘fatigue’ (0.57) and ‘arrhythmia’ (0.33). The poor inter-rater agreement when assessing “arrhythmia” may be as a result of observation of different things in the graphs, among the two raters. When rating animated spirals, both raters had very good agreement when assessing severity of spiral drawings, that is, ‘impairment’ (0.85) and irregularity (0.72). However, there were poor agreements between the two raters when assessing ‘cause’ (0.38) and time-information properties like ‘drawing speed’ (0.25) and ‘hesitation’ (0.21). Tapping properties, that is ‘tapping speed’, ‘accuracy’, ‘fatigue’ and ‘arrhythmia’ had satisfactory internal consistency with a Cronbach’s α coefficient of 0.77. In general, the trends of mean scores of tapping properties worsened with increasing levels of GTS. The mean scores of the four properties were significantly different to each other, only at different levels. In contrast from tapping properties, kinematic properties of spirals, that is ‘drawing speed’, ‘irregularity’ and ‘hesitation’ had a questionable consistency among them with a coefficient of 0.66. Bradykinetic spirals were associated with more impaired speed (mean = 83.7 % worse, P < 0.001) and hesitation (mean = 77.8% worse, P < 0.001), compared to dyskinetic spirals. Both these ‘cause’ categories had similar mean scores of ‘impairment’ and ‘irregularity’. Conclusions In contrast from current approaches used in clinical setting for the assessment of PD symptoms, this system enables clinicians to animate easily and realistically the ULMP of patients who at the same time are at their homes. Dynamic access of visualized motor tests may also be useful when observing and evaluating therapy-related complications such as under- and over-medications. In future, we foresee to utilize these manual ratings for developing and validating computer methods for automating the process of assessing ULMP of PD patients.
Resumo:
We hypothesise that differences in people's attitudes and personality traits lead them to attribute varying importance to environmental considerations, safety, comfort, convenience and flexibility. Differences in personality traits call be revealed not only in the individuals' choice of transport, but also in other actions of their everyday lives-such as how much they recycle, whether they take precautions or avoid dangerous pursuits. Conditioning on a set of exogenous individual characteristics, we use indicators of attitudes and personality traits to form latent variables for inclusion in an, otherwise standard, discrete mode choice model. With a sample of Swedish commuters, we find that both attitudes towards flexibility and comfort, as well as being pro-environmentally inclined, influence the individual's choice of mode. Although modal time and cost still are important, it follows that there are other ways, apart from economic incentives, to attract individuals to the, from society's perspective, desirable public modes of transport. Our results should provide useful information to policy-makers and transportation planners developing sustainable transportation systems.
Resumo:
Essa tese analisa dois temas muito relevantes: o processo estratégico enfrentado pelas firmas líderes do segmento produtor de aves durante os anos 80 e a possibilidade de firmas emergentes situadas em regiões que experimentaram intensos processos desenvolvimentistas alcançarem a fronteira tecnológica a partir de 'Janelas de oportunidades" específicas. A idéia desenvolvida foi a de comparar as condições de emergência e desenvolvimento das indústrias de aves da região Sul com aquelas que deram origem à implantação de projetos avícolas na porção sulmatogrossense.
Resumo:
Meu objetivo nesta tese é compreender o processo de transnacionalização do movimento negro brasileiro e as suas consequências para a luta antirracista no Brasil. Em outras palavras, busco compreender como os negros brasileiros se articulam com os negros do mundo para cumprir seus objetivos. Uma vez que hoje a cultura negra global tem sido compreendida a partir da metáfora do “Atlântico Negro”, que representa um espaço de trocas transnacional que conecta todos os sujeitos da diáspora negra, assumo esta mesma metáfora como ponto de partida para minha reflexão. Entretanto, me interessa refletir sob um dos aspectos do Atlântico Negro, que é a sua dimensão organizacional. Se é pelo Atlântico Negro que hoje circulam um conjunto de conteúdos que são compartilhados pela comunidade negra mundial, tais como idéias e práticas que estão relacionadas a religião, a música, a literatura e as formas de organização, então podemos afirmar que a organização do movimento negro brasileiro se alimenta também destas múltiplas dimensões. Para desenvolver esta linha de argumentação, a tese utiliza o caso do movimento negro brasileiro para analisar o processo de difusão de um frame transnacional racialista que é apropriado pelo movimento negro como base para a elaboração de um diagnóstico, prognóstico e ressonância das ações de combate ao racismo no Brasil e para a definição das estruturas de mobilização e das estratégias de ação do movimento. Contudo, esta apropriação não ocorre sem problemas, pois este frame enfrenta outros frames locais, de caráter não-racialista, o que acarreta severas restrições ao ativismo transnacional na medida em que o próprio movimento negro se vê diante do dilema entre manter o alinhamento com o frame transnacional e aproveita as oportunidades políticas oferecidas pelo racialismo, ou relativiza este frame fazendo algumas concessões em suas propostas e na sua organização, a fim de se adaptar aos frames locais, negociando estas oportunidades a partir das restrições existentes. Para entender esta dinâmica, proponho a metáfora do “Encontro das Águas” amazonense, como um ponto de argumentação complementar ao Atlântico Negro, pois leva em conta os aspectos locais da luta antirracista que se apoiam na mestiçagem como identidade autônoma que não se dilui facilmente na identidade negra. Além de desenvolver estes pontos, a tese contribui para compreender melhor a dialética entre o global e local, bem como as tensões advindas dos frames em disputa.
Resumo:
Ao longo dos últimos 20 anos tem havido uma profusão de estudos que examinam, no âmbito de empresas, a contribuição dos mecanismos de aprendizagem e da adoção de técnicas de gestão para o processo de acumulação tecnológica. No entanto, ainda são escassos os estudos que examinem, de maneira conjunta e sob uma perspectiva dinâmica, o relacionamento entre a adoção de técnicas de gestão, mecanismos de aprendizagem e trajetórias de acumulação de capacidades tecnológicas. Mais que isto, faltam estudos que examinem o duplo papel das técnicas de gestão, ora como parte do estoque de capacidades tecnológicas, ora como um processo de aprendizagem tecnológica em si. Esta dissertação objetiva oferecer uma contribuição para preencher esta lacuna neste campo de estudo. O enfoque desta dissertação deriva de observações empíricas, realizadas em empresas, e inspira-se no clássico estudo Innovation and Learning: the two faces of R&D, de Cohen e Levinthal (1989). Assim a dissertação baseia-se em um estudo de caso individual, realizado em uma empresa do setor siderúrgico no Brasil, no período de 1984 a 2008, examinando estas questões à luz de modelos analíticos disponíveis na literatura internacional. Neste sentido, adotou-se o entendimento de capacidade tecnológica como o conjunto de recursos necessários para gerar e gerir mudanças tecnológicas, sendo construída e acumulada de forma gradual, a partir do engajamento em processos de aprendizagem e da coordenação de bases de conhecimentos acumulados em diferentes dimensões, simbioticamente relacionadas. As métricas utilizadas identificam tipos e níveis de capacidade tecnológica para diferentes funções e identifica quatro tipos de processos de aprendizagem tecnológica e os avalia em termos de suas características-chave. Tomando-se por base evidências empíricas qualitativas e quantitativas, colhidas em primeira mão, a base de trabalho de campo, este estudo verificou que: 1. A empresa acumulou níveis inovativos de capacidades tecnológicas em todas as funções examinadas, sendo o nível Inovativo Intermediário (Nível 5) nas funções Engenharia de Projetos (de forma incompleta) e Equipamentos e o nível Intermediário Avançado (Nível 6) nas funções Processos e Organização da Produção e Produtos. 2. Os mecanismos de aprendizagem subjacentes à acumulação destes níveis de capacidade tecnológica apresentaram resultados relevantes em termos de suas características-chave, principalmente no que diz respeito à variedade e intensidade: de 24 mecanismos em 1984 para um total de 59 em 2008, com uma variação de 145,8%, e com 56 dos 59 mecanismos (94,92%) utilizados atualmente de forma sistemática. 3. O período compreendido entre os anos de 1990 e 2004, no qual foram implementadas as técnicas de gestão estudadas, exceto o Plano de Sugestões, se caracteriza por apresentar a maior taxa de acumulação de capacidades tecnológicas e por dar início à utilização da quase totalidade dos 35 novos mecanismos de aprendizagem incorporados pela empresa após o início de suas operações (1984). E que as técnicas de gestão estudadas: 1. Colaboraram para o processo de aprendizagem tecnológica da AMBJF, principalmente pela necessidade de se: (i) incorporar novos mecanismos de aprendizagem que lhe permitissem acumular, antecipadamente, a base de conhecimentos necessária à implementação das técnicas de gestão estudadas; (ii) coordenar um número maior de mecanismos que dessem o adequado suporte ao aumento da complexidade de seu Sistema de Gestão Integrada (SOl). 2. Ampliaram, por si, o estoque de capacidades tecnológicas da empresa, maIS especificamente em sua dimensão organizacional, a partir da acumulação de conhecimento em procedimentos, instruções de trabalho, manuais, processos e fluxos de gestão e de produção, dentre outros. Desta forma, os resultados aqui encontrados confirmam que a adoção e a implementação das técnicas de gestão estudadas contribuíram com e influenciaram o processo de aprendizagem tecnológica e a trajetória de acumulação tecnológica da empresa, ao mesmo tempo, exercendo, portanto, um duplo papel na organização. Esta conclusão nos leva a um melhor entendimento do tema e pode contribuir para a compreensão de ações políticas e gerenciais que possam acelerar a acumulação de capacidades tecnológicas, entendendo a relevância das técnicas de gestão menos em termos de sua "mera" adoção e mais do seu processo de implementação.
Resumo:
A produção de etanol e a dominação da indústria, historicamente, tem sido uma fonte de discórdia para seus dois principais produtores. Os EUA com seu etanol de milho e o Brasil com sua etanol de cana, são os dois maiores produtores mundiais de etanol (1º EUA; 2º Brasil) e tem competido pela participação de mercado mundial há décadas. A partir de Dezembro de 2011, os EUA levantaram as tarifas e os subsídios que foram instalados para proteger sua indústria de etanol, o que muda o campo de jogo da produção mundial de etanol para o futuro. Atualmente em todo o mundo, o etanol é usado em uma proporção muito menor comparativamente a outros combustíveis. Esta pesquisa analisa o nível potencial de colaboração entre os EUA e o Brasil, facilitando um diálogo entre os stakeholders em etanol. A pesquisa consiste principalmente de conversas e entrevistas, com base em um conjunto de perguntas destinadas a inspirar conversas detalhadas e expansivas sobre os temas de relações Brasil-EUA e etanol. Esta pesquisa mostra que o etanol celulósico, que é também conhecido como etanol de segunda geração, oferece mais oportunidades de parceria entre os EUA e o Brasil, como há mais oportunidades para pesquisa e desenvolvimento em conjunto e transferência de tecnologia nesta área. Enquanto o etanol de cana no Brasil ainda é uma indústria próspera e crescente, o milho e a cana são muito diferentes geneticamente para aplicar as mesmas inovações exatas de um etanol de primeira geração, por outro. As semelhanças entre os processos de fermentação e destilação entre as matérias-primas utilizadas nos EUA e no Brasil para o etanol de segunda geração torna o investimento conjunto nesta área mais sensível. De segunda geração é uma resposta para a questão "alimentos versus combustíveis". Esta pesquisa aplica o modelo de co-opetição como um quadro de parceria entre os EUA e o Brasil em etanol celulósico. A pesquisa mostra que enquanto o etanol pode não ser um forte concorrente com o petróleo no futuro imediato, ele tem melhores perspectivas de ser desenvolvido como um complemento ao petróleo, em vez de um substituto. Como os EUA e o Brasil tem culturas de misturar etanol com petróleo, algo da estrutura para isso já está em vigor, a relação de complementaridade seria fortalecido através de uma política de governo clara e de longo prazo. A pesquisa sugere que apenas através desta colaboração, com toda a partilha de conhecimentos técnicos e estratégias econômicas e de desenvolvimento, o etanol celulósico será um commodity negociado mundialmente e uma alternativa viável a outros combustíveis. As entrevistas com os interessados em que esta pesquisa se baseia foram feitas ao longo de 2012. Como a indústria de etanol é muito dinâmica, certos eventos podem ter ocorrido desde esse tempo para modificar ou melhorar alguns dos argumentos apresentados.
Resumo:
Over the last decades, the analysis of the transmissions of international nancial events has become the subject of many academic studies focused on multivariate volatility models volatility. The goal of this study is to evaluate the nancial contagion between stock market returns. The econometric approach employed was originally presented by Pelletier (2006), named Regime Switching Dynamic Correlation (RSDC). This methodology involves the combination of Constant Conditional Correlation Model (CCC) proposed by Bollerslev (1990) with Markov Regime Switching Model suggested by Hamilton and Susmel (1994). A modi cation was made in the original RSDC model, the introduction of the GJR-GARCH model formulated in Glosten, Jagannathan e Runkle (1993), on the equation of the conditional univariate variances to allow asymmetric e ects in volatility be captured. The database was built with the series of daily closing stock market indices in the United States (SP500), United Kingdom (FTSE100), Brazil (IBOVESPA) and South Korea (KOSPI) for the period from 02/01/2003 to 09/20/2012. Throughout the work the methodology was compared with others most widespread in the literature, and the model RSDC with two regimes was de ned as the most appropriate for the selected sample. The set of results provide evidence for the existence of nancial contagion between markets of the four countries considering the de nition of nancial contagion from the World Bank called very restrictive. Such a conclusion should be evaluated carefully considering the wide diversity of de nitions of contagion in the literature.
Resumo:
Apos uma década de rápido crescimento econômico na primeira década do século 21, Brasil e Turquia foram considerados duas das economias emergentes mais dinâmicas e promissoras. No entanto, vários sinais de dificuldades econômicas e tensões políticas reapareceram recentemente e simultaneamente nos dois países. Acreditamos que esses sinais e a sua simultaneidade podem ser entendidos melhor com um olhar retrospectivo sobre a história econômica dos dois países, que revela ser surpreendentemente paralela. Numa primeira parte, empreendemos uma comparação abrangente da história econômica brasileira e turca para mostrar as numerosas similaridades entre os desafios de política econômica que os dois países enfrentaram, assim como entre as respostas que eles lhes deram desde a virada da Grande Depressão até a primeira década do século 21. Essas escolhas de política econômica comuns dão forma a uma trajetória de desenvolvimento notavelmente análoga, caracterizada primeiro pela adoção do modelo de industrialização por substituição das importações (ISI) no contexto da recessão mundial dos anos 1930; depois pela intensificação e crise final desse modelo nos anos 1980; e finalmente por duas décadas de estabilização e transição para um modelo econômico mais liberal. Numa segunda parte, o desenvolvimento das instituições econômicas e políticas, assim como da economia política subjacente nos dois países, são analisados comparativamente a fim de prover alguns elementos de explicação do paralelo observado na primeira parte. Sustentamos que o marco institucional estabelecido nos dois países durante esse período também têm varias características fundamentais em comum e contribui a explicar as escolhas de política econômica e as performances econômicas comparáveis, detalhadas na primeira parte. Este estudo aborda elementos do contexto histórico úteis para compreender a situação econômica e política atual nos dois países. Potencialmente também constitui uma tentativa de considerar as economias emergentes numa perspectiva histórica e comparativa mais ampla para entender melhor as suas fraquezas institucionais e adotar um olhar mais equilibrado sobre seu potencial econômico.
Resumo:
This paper uses dynamic programming to study the time consistency of optimal macroeconomic policy in economies with recurring public deficits. To this end, a general equilibrium recursive model introduced in Chang (1998) is extended to include govemment bonds and production. The original mode! presents a Sidrauski economy with money and transfers only, implying that the need for govemment fmancing through the inflation tax is minimal. The extended model introduces govemment expenditures and a deficit-financing scheme, analyzing the SargentWallace (1981) problem: recurring deficits may lead the govemment to default on part of its public debt through inflation. The methodology allows for the computation of the set of alI sustainable stabilization plans even when the govemment cannot pre-commit to an optimal inflation path. This is done through value function iterations, which can be done on a computeI. The parameters of the extended model are calibrated with Brazilian data, using as case study three Brazilian stabilization attempts: the Cruzado (1986), Collor (1990) and the Real (1994) plans. The calibration of the parameters of the extended model is straightforward, but its numerical solution proves unfeasible due to a dimensionality problem in the algorithm arising from limitations of available computer technology. However, a numerical solution using the original algorithm and some calibrated parameters is obtained. Results indicate that in the absence of govemment bonds or production only the Real Plan is sustainable in the long run. The numerical solution of the extended algorithm is left for future research.
Resumo:
We study a dynamic model of coordination with timing frictions and payoff heterogeneity. There is a unique equilibrium, characterized by thresholds that determine the choices of each type of agent. We characterize equilibrium for the limiting cases of vanishing timing frictions and vanishing shocks to fundamentals. A lot of conformity emerges: despite payoff heterogeneity, agents’ equilibrium thresholds partially coincide as long as there exists a set of beliefs that would make this coincidence possible – though they never fully coincide. In case of vanishing frictions, the economy behaves almost as if all agents were equal to an average type. Conformity is not inefficient. The efficient solution would have agents following others even more often and giving less importance to the fundamental
Resumo:
Nota: A autora agradece à Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) pela concessão de bolsa de estudos para o desenvolvimento deste projeto de pesquisa.
Resumo:
In this paper we study the e ects of conditional cash transfers in school enrolment and tackling child labour. We develop a dynamic heterogeneous agent general equilibrium model, where households face a set of tradeo s while allocating their children's time in leisure activities, schooling and working. We calibrate the model using data from the Brazilian survey PNAD, before the policy was implemented, in order to quantify the e ects of a conditional transfer. We then evaluate the results of a policy experiment that implements a conditional cash transfer scheme similar to the Brazilian Bolsa Fam lia. Our results suggest that the program, in the long term, is able to substantially increase school registration and reduce child labour and poverty. In addition, we nd out that a progressive conditional cash transfer results is even more e ective in tackling child labour and increasing school enrolment.
Resumo:
Neste trabalho, estudamos os impactos de transfer^encias condicionais de renda sobre o trabalho e a educa c~ao infantis. Para tanto, desenvolvemos modelo din^amico de equil brio geral com agentes heterog^eneos, onde as fam lias enfrentam tradeo s com rela c~ao a aloca c~ao de tempo das crian cas em atividades de lazer, em escolaridade e em trabalhar. O modelo e calibrado usando dados da Pesquisa Nacional por Amostra em Domic lios, de modo que podemos quanti car os efeitos de uma pol tica de transfer^encia de renda. Finalmente, avaliamos o impacto de um pol tica semelhante ao atual Bolsa Fam lia. Nossos resultados sugerem que o programa, no longo prazo, e capaz de induzir um aumento substancial na escolaridade, al em de ser efetivo na redu c~ao do trabalho infantil e da pobreza. Al em disso, mostramos que um programa progressivo de transfer^encia condicional de renda resulta em benef cios ainda maiores.
Resumo:
We consider a class of sampling-based decomposition methods to solve risk-averse multistage stochastic convex programs. We prove a formula for the computation of the cuts necessary to build the outer linearizations of the recourse functions. This formula can be used to obtain an efficient implementation of Stochastic Dual Dynamic Programming applied to convex nonlinear problems. We prove the almost sure convergence of these decomposition methods when the relatively complete recourse assumption holds. We also prove the almost sure convergence of these algorithms when applied to risk-averse multistage stochastic linear programs that do not satisfy the relatively complete recourse assumption. The analysis is first done assuming the underlying stochastic process is interstage independent and discrete, with a finite set of possible realizations at each stage. We then indicate two ways of extending the methods and convergence analysis to the case when the process is interstage dependent.
Resumo:
As digital systems move away from traditional desktop setups, new interaction paradigms are emerging that better integrate with users’ realworld surroundings, and better support users’ individual needs. While promising, these modern interaction paradigms also present new challenges, such as a lack of paradigm-specific tools to systematically evaluate and fully understand their use. This dissertation tackles this issue by framing empirical studies of three novel digital systems in embodied cognition – an exciting new perspective in cognitive science where the body and its interactions with the physical world take a central role in human cognition. This is achieved by first, focusing the design of all these systems on a contemporary interaction paradigm that emphasizes physical interaction on tangible interaction, a contemporary interaction paradigm; and second, by comprehensively studying user performance in these systems through a set of novel performance metrics grounded on epistemic actions, a relatively well established and studied construct in the literature on embodied cognition. The first system presented in this dissertation is an augmented Four-in-a-row board game. Three different versions of the game were developed, based on three different interaction paradigms (tangible, touch and mouse), and a repeated measures study involving 36 participants measured the occurrence of three simple epistemic actions across these three interfaces. The results highlight the relevance of epistemic actions in such a task and suggest that the different interaction paradigms afford instantiation of these actions in different ways. Additionally, the tangible version of the system supports the most rapid execution of these actions, providing novel quantitative insights into the real benefits of tangible systems. The second system presented in this dissertation is a tangible tabletop scheduling application. Two studies with single and paired users provide several insights into the impact of epistemic actions on the user experience when these are performed outside of a system’s sensing boundaries. These insights are clustered by the form, size and location of ideal interface areas for such offline epistemic actions to occur, as well as how can physical tokens be designed to better support them. Finally, and based on the results obtained to this point, the last study presented in this dissertation directly addresses the lack of empirical tools to formally evaluate tangible interaction. It presents a video-coding framework grounded on a systematic literature review of 78 papers, and evaluates its value as metric through a 60 participant study performed across three different research laboratories. The results highlight the usefulness and power of epistemic actions as a performance metric for tangible systems. In sum, through the use of such novel metrics in each of the three studies presented, this dissertation provides a better understanding of the real impact and benefits of designing and developing systems that feature tangible interaction.