933 resultados para Set of Weak Stationary Dynamic Actions
Resumo:
Ligands for the nuclear receptor superfamily have at least two mechanisms of action: (a) classical transcriptional regulation of target genes (genomic mechanisms); and (b) non-genomic actions, which are initiated at the cell membrane, which could also impact transcription. Though transcriptional mechanisms are increasingly well understood, membrane-initiated actions of these ligands are incompletely understood. This has led to considerable debate over the physiological relevance of membrane-initiated actions of hormones versus genomic actions of hormones, with genomic actions predominating in the endocrine field. There is good evidence that the membrane-limited actions of hormones, particularly estrogens, involve the rapid activation of kinases and the release of calcium and that these are linked to physiologically relevant scenarios in the brain. We show evidence in this review, that membrane actions of estrogens, which activate these rapid signaling cascades, can also potentiate nuclear transcription in both the central nervous system and in non-neuronal cell lines. We present a theoretical scenario which can be used to understand this phenomenon. These signaling cascades may occur in parallel or in series but subsequently, converge at the modification of transcriptionally relevant molecules such as nuclear receptors and/or coactivators. In addition, other non-cognate hormones or neurotransmitters may also activate cascades to crosstalk with estrogen receptor-mediated transcription, though the relevance of this is less clear. The idea that coupling between membrane-initiated and genomic actions of hormones is a novel idea in neuroendocrinology and provides us with a unified view of hormone action in the central nervous system.
Resumo:
As part of an international intercomparison project, the weak temperature gradient (WTG) and damped gravity wave (DGW) methods are used to parameterize large-scale dynamics in a set of cloud-resolving models (CRMs) and single column models (SCMs). The WTG or DGW method is implemented using a configuration that couples a model to a reference state defined with profiles obtained from the same model in radiative-convective equilibrium. We investigated the sensitivity of each model to changes in SST, given a fixed reference state. We performed a systematic comparison of the WTG and DGW methods in different models, and a systematic comparison of the behavior of those models using the WTG method and the DGW method. The sensitivity to the SST depends on both the large-scale parameterization method and the choice of the cloud model. In general, SCMs display a wider range of behaviors than CRMs. All CRMs using either the WTG or DGW method show an increase of precipitation with SST, while SCMs show sensitivities which are not always monotonic. CRMs using either the WTG or DGW method show a similar relationship between mean precipitation rate and column-relative humidity, while SCMs exhibit a much wider range of behaviors. DGW simulations produce large-scale velocity profiles which are smoother and less top-heavy compared to those produced by the WTG simulations. These large-scale parameterization methods provide a useful tool to identify the impact of parameterization differences on model behavior in the presence of two-way feedback between convection and the large-scale circulation.
Resumo:
The Plant–Craig stochastic convection parameterization (version 2.0) is implemented in the Met Office Regional Ensemble Prediction System (MOGREPS-R) and is assessed in comparison with the standard convection scheme with a simple stochastic scheme only, from random parameter variation. A set of 34 ensemble forecasts, each with 24 members, is considered, over the month of July 2009. Deterministic and probabilistic measures of the precipitation forecasts are assessed. The Plant–Craig parameterization is found to improve probabilistic forecast measures, particularly the results for lower precipitation thresholds. The impact on deterministic forecasts at the grid scale is neutral, although the Plant–Craig scheme does deliver improvements when forecasts are made over larger areas. The improvements found are greater in conditions of relatively weak synoptic forcing, for which convective precipitation is likely to be less predictable.
Resumo:
Combining the results of behavioral, neuronal immediate early gene activation, lesion and neuroanatomical experiments, we have presently investigated the role of the superior colliculus (SC) in predatory hunting. First, we have shown that insect hunting is associated with a characteristic large increase in Fos expression in the lateral part of the intermediate gray layer of the SC (Wig). Next, we have shown that animals with bilateral NMDA lesions of the lateral parts of the SC presented a significant delay in starting to chase the prey and longer periods engaged in other activities than predatory hunting. They also showed a clear deficit to orient themselves toward the moving prey and lost the stereotyped sequence of actions seen for capturing, holding and killing the prey. Our Phaseolus vulgaris-leucoagglutinin analysis revealed that the lateral SCig, besides providing the well-documented descending crossed pathway to premotor sites in brainstem and spinal cord, projects to a number of midbrain and diencephalic sites likely to influence key functions in the context of the predatory behavior, such as general levels of arousal, motivational level to hunt or forage, behavioral planning, appropriate selection of the basal ganglia motor plan to hunt, and motor output of the primary motor cortex. In contrast to the lateral SC lesions, medial SC lesions produced a small deficit in predatory hunting, and compared to what we have seen for the lateral SCig, the medial SCig has a very limited set of projections to thalamic sites related to the control of motor planning or motor output, and provides conspicuous inputs to brainstem sites involved in organizing a wide range of anti-predatory defensive responses. Overall, the present results served to clarify how the different functional domains in the SC may mediate the decision to pursue and hunt a prey or escape from a predator. (C) 2010 IBRO. Published by Elsevier Ltd. All rights reserved.
Resumo:
In Information Visualization, adding and removing data elements can strongly impact the underlying visual space. We have developed an inherently incremental technique (incBoard) that maintains a coherent disposition of elements from a dynamic multidimensional data set on a 2D grid as the set changes. Here, we introduce a novel layout that uses pairwise similarity from grid neighbors, as defined in incBoard, to reposition elements on the visual space, free from constraints imposed by the grid. The board continues to be updated and can be displayed alongside the new space. As similar items are placed together, while dissimilar neighbors are moved apart, it supports users in the identification of clusters and subsets of related elements. Densely populated areas identified in the incSpace can be efficiently explored with the corresponding incBoard visualization, which is not susceptible to occlusion. The solution remains inherently incremental and maintains a coherent disposition of elements, even for fully renewed sets. The algorithm considers relative positions for the initial placement of elements, and raw dissimilarity to fine tune the visualization. It has low computational cost, with complexity depending only on the size of the currently viewed subset, V. Thus, a data set of size N can be sequentially displayed in O(N) time, reaching O(N (2)) only if the complete set is simultaneously displayed.
Resumo:
Small-angle X-ray scattering (SAXS) and electron paramagnetic resonance (EPR) have been carried out to investigate the structure of the self-aggregates of two phenothiazine drugs, chlorpromazine (CPZ) and trifluoperazine (TFP), in aqueous solution. In the SAXS studies, drug solutions of 20 and 60 mM, at pH 4.0 and 7.0, were investigated and the best data fittings were achieved assuming several different particle form factors with a homogeneous electron density distribution in respect to the water environment. Because of the limitation of scattering intensity in the q range above 0.15 angstrom(-1), precise determination of the aggregate shape was not possible and all of the tested models for ellipsoids, cylinders, or parallelepipeds fitted the experimental data equally well. The SAXS data allows inferring, however, that CPZ molecules might self-assemble in a basis set of an orthorhombic cell, remaining as nanocrystallites in solution. Such nanocrystals are composed of a small number of unit cells (up to 10, in c-direction), with CPZ aggregation numbers of 60-80. EPR spectra of 5- and 16-doxyl stearic acids bound to the aggregates were analyzed through simulation, and the dynamic and magnetic parameters were obtained. The phenothiazine concentration in EPR experiments was in the range of 5-60 mM. Critical aggregation concentration of TFP is lower than that for CPZ, consistent with a higher hydrophobicity of TFP. At acidic pH 4.0 a significant residual motion of the nitroxide relative to the aggregate is observed, and the EPR spectra and corresponding parameters are similar to those reported for aqueous surfactant micelles. However, at pH 6.5 a significant motional restriction is observed, and the nitroxide rotational correlation times correlate very well with those estimated for the whole aggregated particle from SAXS data. This implies that the aggregate is densely packed at this pH and that the nitroxide is tightly bound to it producing a strongly immobilized EPR spectrum. Besides that, at pH 6.5 the differences in motional restriction observed between 5- and 16-DSA are small, which is different from that observed for aqueous surfactant micelles.
Resumo:
Given an oriented Riemannian surface (Sigma, g), its tangent bundle T Sigma enjoys a natural pseudo-Kahler structure, that is the combination of a complex structure 2, a pseudo-metric G with neutral signature and a symplectic structure Omega. We give a local classification of those surfaces of T Sigma which are both Lagrangian with respect to Omega and minimal with respect to G. We first show that if g is non-flat, the only such surfaces are affine normal bundles over geodesics. In the flat case there is, in contrast, a large set of Lagrangian minimal surfaces, which is described explicitly. As an application, we show that motions of surfaces in R(3) or R(1)(3) induce Hamiltonian motions of their normal congruences, which are Lagrangian surfaces in TS(2) or TH(2) respectively. We relate the area of the congruence to a second-order functional F = f root H(2) - K dA on the original surface. (C) 2010 Elsevier B.V. All rights reserved.
Resumo:
Objective To design, develop and set up a web-based system for enabling graphical visualization of upper limb motor performance (ULMP) of Parkinson’s disease (PD) patients to clinicians. Background Sixty-five patients diagnosed with advanced PD have used a test battery, implemented in a touch-screen handheld computer, in their home environment settings over the course of a 3-year clinical study. The test items consisted of objective measures of ULMP through a set of upper limb motor tests (finger to tapping and spiral drawings). For the tapping tests, patients were asked to perform alternate tapping of two buttons as fast and accurate as possible, first using the right hand and then the left hand. The test duration was 20 seconds. For the spiral drawing test, patients traced a pre-drawn Archimedes spiral using the dominant hand, and the test was repeated 3 times per test occasion. In total, the study database consisted of symptom assessments during 10079 test occasions. Methods Visualization of ULMP The web-based system is used by two neurologists for assessing the performance of PD patients during motor tests collected over the course of the said study. The system employs animations, scatter plots and time series graphs to visualize the ULMP of patients to the neurologists. The performance during spiral tests is depicted by animating the three spiral drawings, allowing the neurologists to observe real-time accelerations or hesitations and sharp changes during the actual drawing process. The tapping performance is visualized by displaying different types of graphs. Information presented included distribution of taps over the two buttons, horizontal tap distance vs. time, vertical tap distance vs. time, and tapping reaction time over the test length. Assessments Different scales are utilized by the neurologists to assess the observed impairments. For the spiral drawing performance, the neurologists rated firstly the ‘impairment’ using a 0 (no impairment) – 10 (extremely severe) scale, secondly three kinematic properties: ‘drawing speed’, ‘irregularity’ and ‘hesitation’ using a 0 (normal) – 4 (extremely severe) scale, and thirdly the probable ‘cause’ for the said impairment using 3 choices including Tremor, Bradykinesia/Rigidity and Dyskinesia. For the tapping performance, a 0 (normal) – 4 (extremely severe) scale is used for first rating four tapping properties: ‘tapping speed’, ‘accuracy’, ‘fatigue’, ‘arrhythmia’, and then the ‘global tapping severity’ (GTS). To achieve a common basis for assessment, initially one neurologist (DN) performed preliminary ratings by browsing through the database to collect and rate at least 20 samples of each GTS level and at least 33 samples of each ‘cause’ category. These preliminary ratings were then observed by the two neurologists (DN and PG) to be used as templates for rating of tests afterwards. In another track, the system randomly selected one test occasion per patient and visualized its items, that is tapping and spiral drawings, to the two neurologists. Statistical methods Inter-rater agreements were assessed using weighted Kappa coefficient. The internal consistency of properties of tapping and spiral drawing tests were assessed using Cronbach’s α test. One-way ANOVA test followed by Tukey multiple comparisons test was used to test if mean scores of properties of tapping and spiral drawing tests were different among GTS and ‘cause’ categories, respectively. Results When rating tapping graphs, inter-rater agreements (Kappa) were as follows: GTS (0.61), ‘tapping speed’ (0.89), ‘accuracy’ (0.66), ‘fatigue’ (0.57) and ‘arrhythmia’ (0.33). The poor inter-rater agreement when assessing “arrhythmia” may be as a result of observation of different things in the graphs, among the two raters. When rating animated spirals, both raters had very good agreement when assessing severity of spiral drawings, that is, ‘impairment’ (0.85) and irregularity (0.72). However, there were poor agreements between the two raters when assessing ‘cause’ (0.38) and time-information properties like ‘drawing speed’ (0.25) and ‘hesitation’ (0.21). Tapping properties, that is ‘tapping speed’, ‘accuracy’, ‘fatigue’ and ‘arrhythmia’ had satisfactory internal consistency with a Cronbach’s α coefficient of 0.77. In general, the trends of mean scores of tapping properties worsened with increasing levels of GTS. The mean scores of the four properties were significantly different to each other, only at different levels. In contrast from tapping properties, kinematic properties of spirals, that is ‘drawing speed’, ‘irregularity’ and ‘hesitation’ had a questionable consistency among them with a coefficient of 0.66. Bradykinetic spirals were associated with more impaired speed (mean = 83.7 % worse, P < 0.001) and hesitation (mean = 77.8% worse, P < 0.001), compared to dyskinetic spirals. Both these ‘cause’ categories had similar mean scores of ‘impairment’ and ‘irregularity’. Conclusions In contrast from current approaches used in clinical setting for the assessment of PD symptoms, this system enables clinicians to animate easily and realistically the ULMP of patients who at the same time are at their homes. Dynamic access of visualized motor tests may also be useful when observing and evaluating therapy-related complications such as under- and over-medications. In future, we foresee to utilize these manual ratings for developing and validating computer methods for automating the process of assessing ULMP of PD patients.
Resumo:
We hypothesise that differences in people's attitudes and personality traits lead them to attribute varying importance to environmental considerations, safety, comfort, convenience and flexibility. Differences in personality traits call be revealed not only in the individuals' choice of transport, but also in other actions of their everyday lives-such as how much they recycle, whether they take precautions or avoid dangerous pursuits. Conditioning on a set of exogenous individual characteristics, we use indicators of attitudes and personality traits to form latent variables for inclusion in an, otherwise standard, discrete mode choice model. With a sample of Swedish commuters, we find that both attitudes towards flexibility and comfort, as well as being pro-environmentally inclined, influence the individual's choice of mode. Although modal time and cost still are important, it follows that there are other ways, apart from economic incentives, to attract individuals to the, from society's perspective, desirable public modes of transport. Our results should provide useful information to policy-makers and transportation planners developing sustainable transportation systems.
Resumo:
Essa tese analisa dois temas muito relevantes: o processo estratégico enfrentado pelas firmas líderes do segmento produtor de aves durante os anos 80 e a possibilidade de firmas emergentes situadas em regiões que experimentaram intensos processos desenvolvimentistas alcançarem a fronteira tecnológica a partir de 'Janelas de oportunidades" específicas. A idéia desenvolvida foi a de comparar as condições de emergência e desenvolvimento das indústrias de aves da região Sul com aquelas que deram origem à implantação de projetos avícolas na porção sulmatogrossense.
Resumo:
Meu objetivo nesta tese é compreender o processo de transnacionalização do movimento negro brasileiro e as suas consequências para a luta antirracista no Brasil. Em outras palavras, busco compreender como os negros brasileiros se articulam com os negros do mundo para cumprir seus objetivos. Uma vez que hoje a cultura negra global tem sido compreendida a partir da metáfora do “Atlântico Negro”, que representa um espaço de trocas transnacional que conecta todos os sujeitos da diáspora negra, assumo esta mesma metáfora como ponto de partida para minha reflexão. Entretanto, me interessa refletir sob um dos aspectos do Atlântico Negro, que é a sua dimensão organizacional. Se é pelo Atlântico Negro que hoje circulam um conjunto de conteúdos que são compartilhados pela comunidade negra mundial, tais como idéias e práticas que estão relacionadas a religião, a música, a literatura e as formas de organização, então podemos afirmar que a organização do movimento negro brasileiro se alimenta também destas múltiplas dimensões. Para desenvolver esta linha de argumentação, a tese utiliza o caso do movimento negro brasileiro para analisar o processo de difusão de um frame transnacional racialista que é apropriado pelo movimento negro como base para a elaboração de um diagnóstico, prognóstico e ressonância das ações de combate ao racismo no Brasil e para a definição das estruturas de mobilização e das estratégias de ação do movimento. Contudo, esta apropriação não ocorre sem problemas, pois este frame enfrenta outros frames locais, de caráter não-racialista, o que acarreta severas restrições ao ativismo transnacional na medida em que o próprio movimento negro se vê diante do dilema entre manter o alinhamento com o frame transnacional e aproveita as oportunidades políticas oferecidas pelo racialismo, ou relativiza este frame fazendo algumas concessões em suas propostas e na sua organização, a fim de se adaptar aos frames locais, negociando estas oportunidades a partir das restrições existentes. Para entender esta dinâmica, proponho a metáfora do “Encontro das Águas” amazonense, como um ponto de argumentação complementar ao Atlântico Negro, pois leva em conta os aspectos locais da luta antirracista que se apoiam na mestiçagem como identidade autônoma que não se dilui facilmente na identidade negra. Além de desenvolver estes pontos, a tese contribui para compreender melhor a dialética entre o global e local, bem como as tensões advindas dos frames em disputa.
Resumo:
Ao longo dos últimos 20 anos tem havido uma profusão de estudos que examinam, no âmbito de empresas, a contribuição dos mecanismos de aprendizagem e da adoção de técnicas de gestão para o processo de acumulação tecnológica. No entanto, ainda são escassos os estudos que examinem, de maneira conjunta e sob uma perspectiva dinâmica, o relacionamento entre a adoção de técnicas de gestão, mecanismos de aprendizagem e trajetórias de acumulação de capacidades tecnológicas. Mais que isto, faltam estudos que examinem o duplo papel das técnicas de gestão, ora como parte do estoque de capacidades tecnológicas, ora como um processo de aprendizagem tecnológica em si. Esta dissertação objetiva oferecer uma contribuição para preencher esta lacuna neste campo de estudo. O enfoque desta dissertação deriva de observações empíricas, realizadas em empresas, e inspira-se no clássico estudo Innovation and Learning: the two faces of R&D, de Cohen e Levinthal (1989). Assim a dissertação baseia-se em um estudo de caso individual, realizado em uma empresa do setor siderúrgico no Brasil, no período de 1984 a 2008, examinando estas questões à luz de modelos analíticos disponíveis na literatura internacional. Neste sentido, adotou-se o entendimento de capacidade tecnológica como o conjunto de recursos necessários para gerar e gerir mudanças tecnológicas, sendo construída e acumulada de forma gradual, a partir do engajamento em processos de aprendizagem e da coordenação de bases de conhecimentos acumulados em diferentes dimensões, simbioticamente relacionadas. As métricas utilizadas identificam tipos e níveis de capacidade tecnológica para diferentes funções e identifica quatro tipos de processos de aprendizagem tecnológica e os avalia em termos de suas características-chave. Tomando-se por base evidências empíricas qualitativas e quantitativas, colhidas em primeira mão, a base de trabalho de campo, este estudo verificou que: 1. A empresa acumulou níveis inovativos de capacidades tecnológicas em todas as funções examinadas, sendo o nível Inovativo Intermediário (Nível 5) nas funções Engenharia de Projetos (de forma incompleta) e Equipamentos e o nível Intermediário Avançado (Nível 6) nas funções Processos e Organização da Produção e Produtos. 2. Os mecanismos de aprendizagem subjacentes à acumulação destes níveis de capacidade tecnológica apresentaram resultados relevantes em termos de suas características-chave, principalmente no que diz respeito à variedade e intensidade: de 24 mecanismos em 1984 para um total de 59 em 2008, com uma variação de 145,8%, e com 56 dos 59 mecanismos (94,92%) utilizados atualmente de forma sistemática. 3. O período compreendido entre os anos de 1990 e 2004, no qual foram implementadas as técnicas de gestão estudadas, exceto o Plano de Sugestões, se caracteriza por apresentar a maior taxa de acumulação de capacidades tecnológicas e por dar início à utilização da quase totalidade dos 35 novos mecanismos de aprendizagem incorporados pela empresa após o início de suas operações (1984). E que as técnicas de gestão estudadas: 1. Colaboraram para o processo de aprendizagem tecnológica da AMBJF, principalmente pela necessidade de se: (i) incorporar novos mecanismos de aprendizagem que lhe permitissem acumular, antecipadamente, a base de conhecimentos necessária à implementação das técnicas de gestão estudadas; (ii) coordenar um número maior de mecanismos que dessem o adequado suporte ao aumento da complexidade de seu Sistema de Gestão Integrada (SOl). 2. Ampliaram, por si, o estoque de capacidades tecnológicas da empresa, maIS especificamente em sua dimensão organizacional, a partir da acumulação de conhecimento em procedimentos, instruções de trabalho, manuais, processos e fluxos de gestão e de produção, dentre outros. Desta forma, os resultados aqui encontrados confirmam que a adoção e a implementação das técnicas de gestão estudadas contribuíram com e influenciaram o processo de aprendizagem tecnológica e a trajetória de acumulação tecnológica da empresa, ao mesmo tempo, exercendo, portanto, um duplo papel na organização. Esta conclusão nos leva a um melhor entendimento do tema e pode contribuir para a compreensão de ações políticas e gerenciais que possam acelerar a acumulação de capacidades tecnológicas, entendendo a relevância das técnicas de gestão menos em termos de sua "mera" adoção e mais do seu processo de implementação.
Resumo:
A produção de etanol e a dominação da indústria, historicamente, tem sido uma fonte de discórdia para seus dois principais produtores. Os EUA com seu etanol de milho e o Brasil com sua etanol de cana, são os dois maiores produtores mundiais de etanol (1º EUA; 2º Brasil) e tem competido pela participação de mercado mundial há décadas. A partir de Dezembro de 2011, os EUA levantaram as tarifas e os subsídios que foram instalados para proteger sua indústria de etanol, o que muda o campo de jogo da produção mundial de etanol para o futuro. Atualmente em todo o mundo, o etanol é usado em uma proporção muito menor comparativamente a outros combustíveis. Esta pesquisa analisa o nível potencial de colaboração entre os EUA e o Brasil, facilitando um diálogo entre os stakeholders em etanol. A pesquisa consiste principalmente de conversas e entrevistas, com base em um conjunto de perguntas destinadas a inspirar conversas detalhadas e expansivas sobre os temas de relações Brasil-EUA e etanol. Esta pesquisa mostra que o etanol celulósico, que é também conhecido como etanol de segunda geração, oferece mais oportunidades de parceria entre os EUA e o Brasil, como há mais oportunidades para pesquisa e desenvolvimento em conjunto e transferência de tecnologia nesta área. Enquanto o etanol de cana no Brasil ainda é uma indústria próspera e crescente, o milho e a cana são muito diferentes geneticamente para aplicar as mesmas inovações exatas de um etanol de primeira geração, por outro. As semelhanças entre os processos de fermentação e destilação entre as matérias-primas utilizadas nos EUA e no Brasil para o etanol de segunda geração torna o investimento conjunto nesta área mais sensível. De segunda geração é uma resposta para a questão "alimentos versus combustíveis". Esta pesquisa aplica o modelo de co-opetição como um quadro de parceria entre os EUA e o Brasil em etanol celulósico. A pesquisa mostra que enquanto o etanol pode não ser um forte concorrente com o petróleo no futuro imediato, ele tem melhores perspectivas de ser desenvolvido como um complemento ao petróleo, em vez de um substituto. Como os EUA e o Brasil tem culturas de misturar etanol com petróleo, algo da estrutura para isso já está em vigor, a relação de complementaridade seria fortalecido através de uma política de governo clara e de longo prazo. A pesquisa sugere que apenas através desta colaboração, com toda a partilha de conhecimentos técnicos e estratégias econômicas e de desenvolvimento, o etanol celulósico será um commodity negociado mundialmente e uma alternativa viável a outros combustíveis. As entrevistas com os interessados em que esta pesquisa se baseia foram feitas ao longo de 2012. Como a indústria de etanol é muito dinâmica, certos eventos podem ter ocorrido desde esse tempo para modificar ou melhorar alguns dos argumentos apresentados.
Resumo:
Over the last decades, the analysis of the transmissions of international nancial events has become the subject of many academic studies focused on multivariate volatility models volatility. The goal of this study is to evaluate the nancial contagion between stock market returns. The econometric approach employed was originally presented by Pelletier (2006), named Regime Switching Dynamic Correlation (RSDC). This methodology involves the combination of Constant Conditional Correlation Model (CCC) proposed by Bollerslev (1990) with Markov Regime Switching Model suggested by Hamilton and Susmel (1994). A modi cation was made in the original RSDC model, the introduction of the GJR-GARCH model formulated in Glosten, Jagannathan e Runkle (1993), on the equation of the conditional univariate variances to allow asymmetric e ects in volatility be captured. The database was built with the series of daily closing stock market indices in the United States (SP500), United Kingdom (FTSE100), Brazil (IBOVESPA) and South Korea (KOSPI) for the period from 02/01/2003 to 09/20/2012. Throughout the work the methodology was compared with others most widespread in the literature, and the model RSDC with two regimes was de ned as the most appropriate for the selected sample. The set of results provide evidence for the existence of nancial contagion between markets of the four countries considering the de nition of nancial contagion from the World Bank called very restrictive. Such a conclusion should be evaluated carefully considering the wide diversity of de nitions of contagion in the literature.
Resumo:
Apos uma década de rápido crescimento econômico na primeira década do século 21, Brasil e Turquia foram considerados duas das economias emergentes mais dinâmicas e promissoras. No entanto, vários sinais de dificuldades econômicas e tensões políticas reapareceram recentemente e simultaneamente nos dois países. Acreditamos que esses sinais e a sua simultaneidade podem ser entendidos melhor com um olhar retrospectivo sobre a história econômica dos dois países, que revela ser surpreendentemente paralela. Numa primeira parte, empreendemos uma comparação abrangente da história econômica brasileira e turca para mostrar as numerosas similaridades entre os desafios de política econômica que os dois países enfrentaram, assim como entre as respostas que eles lhes deram desde a virada da Grande Depressão até a primeira década do século 21. Essas escolhas de política econômica comuns dão forma a uma trajetória de desenvolvimento notavelmente análoga, caracterizada primeiro pela adoção do modelo de industrialização por substituição das importações (ISI) no contexto da recessão mundial dos anos 1930; depois pela intensificação e crise final desse modelo nos anos 1980; e finalmente por duas décadas de estabilização e transição para um modelo econômico mais liberal. Numa segunda parte, o desenvolvimento das instituições econômicas e políticas, assim como da economia política subjacente nos dois países, são analisados comparativamente a fim de prover alguns elementos de explicação do paralelo observado na primeira parte. Sustentamos que o marco institucional estabelecido nos dois países durante esse período também têm varias características fundamentais em comum e contribui a explicar as escolhas de política econômica e as performances econômicas comparáveis, detalhadas na primeira parte. Este estudo aborda elementos do contexto histórico úteis para compreender a situação econômica e política atual nos dois países. Potencialmente também constitui uma tentativa de considerar as economias emergentes numa perspectiva histórica e comparativa mais ampla para entender melhor as suas fraquezas institucionais e adotar um olhar mais equilibrado sobre seu potencial econômico.