923 resultados para Overlapping
Resumo:
How do the liquidity functions of banks affect investment and growth at different stages of economic development? How do financial fragility and the costs of banking crises evolve with the level of wealth of countries? We analyze these issues using an overlapping generations growth model where agents, who experience idiosyncratic liquidity shocks, can invest in a liquid storage technology or in a partially illiquid Cobb Douglas technology. By pooling liquidity risk, banks play a growth enhancing role in reducing inefficient liquidation of long term projects, but they may face liquidity crises associated with severe output losses. We show that middle income economies may find optimal to be exposed to liquidity crises, while poor and rich economies have more incentives to develop a fully covered banking system. Therefore, middle income economies could experience banking crises in the process of their development and, as they get richer, they eventually converge to a financially safe long run steady state. Finally, the model replicates the empirical fact of higher costs of banking crises for middle income economies.
Resumo:
This paper studies the long-run impact of HIV / AIDS on per capita income and education. We introduce a channel from HIV / AIDS to long-run income that has been overlooked by the literature, the reduction of the incentives to study due to shorter expected longevity. We work with a continuous time overlapping generations mo deI in which life cycle features of savings and education decision play key roles. The simulations predict that the most affected countries in Sub-Saharan Africa will be in the future, on average, a quarter poorer than they would be without AIDS, due only to the direct (human capital reduction) and indirect (decline in savings and investment) effects of life-expectancy reductions. Schooling will decline on average by half. These findings are well above previous results in the literature and indicate that, as pessimistic as they may be, at least in economic terms the worst could be yet to come.
Resumo:
Esta tese é constituída por três ensaios. O primeiro ensaio analisa a informação pública disponível sobre o risco das carteiras de crédito dos bancos brasileiros, sendo dividido em dois capítulos. O primeiro analisa a limitação da informação pública disponibilizada pelos bancos e pelo Banco Central, quando comparada a informação gerencial disponível internamente pelos bancos. Concluiu-se que existe espaço para o aumento da transparência na divulgação das informações, fato que vem ocorrendo gradativamente no Brasil através de novas normas relacionadas ao Pilar 3 de Basileia II e à divulgação de informações mais detalhas pelo Bacen, como, por exemplo, aquelas do “Top50” . A segunda parte do primeiro ensaio mostra a discrepância entre o índice de inadimplência contábil (NPL) e a probabilidade de inadimplência (PD) e também discute a relação entre provisão e perda esperada. Através da utilização de matrizes de migração e de uma simulação baseada na sobreposição de safras de carteira de crédito de grandes bancos, concluiu-se que o índice de inadimplência subestima a PD e que a provisão constituída pelos bancos é menor que a perda esperada do SFN. O segundo ensaio relaciona a gestão de risco à discriminação de preço. Foi desenvolvido um modelo que consiste em um duopólio de Cournot em um mercado de crédito de varejo, em que os bancos podem realizar discriminação de terceiro grau. Neste modelo, os potenciais tomadores de crédito podem ser de dois tipos, de baixo ou de alto risco, sendo que tomadores de baixo risco possuem demanda mais elástica. Segundo o modelo, se o custo para observar o tipo do cliente for alto, a estratégia dos bancos será não discriminar (pooling equilibrium). Mas, se este custo for suficientemente baixo, será ótimo para os bancos cobrarem taxas diferentes para cada grupo. É argumentado que o Acordo de Basileia II funcionou como um choque exógeno que deslocou o equilíbrio para uma situação com maior discriminação. O terceiro ensaio é divido em dois capítulos. O primeiro discute a aplicação dos conceitos de probabilidade subjetiva e incerteza Knigthiana a modelos de VaR e a importância da avaliação do “risco de modelo”, que compreende os riscos de estimação, especificação e identificação. O ensaio propõe que a metodologia dos “quatro elementos” de risco operacional (dados internos, externos, ambiente de negócios e cenários) seja estendida à mensuração de outros riscos (risco de mercado e risco de crédito). A segunda parte deste último ensaio trata da aplicação do elemento análise de cenários para a mensuração da volatilidade condicional nas datas de divulgação econômica relevante, especificamente nos dias de reuniões do Copom.
Resumo:
O objetivo principal desta tese é compreender o funcionamento de um mosaico de áreas protegidas e unidades de conservação – o Mosaico Bocaina. Entende-se hoje que a política de conservação de biodiversidade depende da criação e adequada gestão de áreas protegidas. No entanto, a apropriação estatal de porções do território se deu por meio de decretos de criação de unidades de conservação num período em que não era obrigatória a consulta à população que habita essas localidades, o que acabou gerando inúmeros inconvenientes para ambos os lados e um verdadeiro imbróglio jurídico quando se trata do reconhecimento dos direitos difusos. O Mosaico Bocaina foi criado por uma portaria do Ministério do Meio Ambiente no final de 2006. Desde 2007 vem tentando se firmar como um instrumento de planejamento e gestão integrada e participativa de um conjunto unidades de conservação. Tenta-se também mitigar e buscar possíveis soluções para conflitos fundiários históricos criados pela sobreposição de territórios oficiais e tradicionais. Por meio da análise sistemática dos documentos produzidos no âmbito do seu Conselho Consultivo, e do acompanhamento das discussões de temas caros aos atores interagindo nesse fórum de governança híbrida, procuramos entender por que certos temas avançam e entram na agenda, sendo encaminhados para as instâncias decisórias competentes, e outros nem sequer conseguem ser processados, sendo bloqueados assim que entram na pauta. Identificamos que tal processo é resultado da dinâmica de configuração de forças de duas coalizões de defesa que disputam, mais que compartilham, espaços no território, e sempre polarizaram as discussões. De um lado, a coalizão pró-biodiversidade, que agrega gestores de unidades de conservação (tanto de proteção integral quanto de uso sustentado) e outros atores cujo foco nem sempre é uma agenda claramente conservacionista, mas excludente. De outro, a coalizão pró-sociodiversidade, que luta pela adoção de uma agenda socioambientalista e alternativa, com a inclusão e garantia do protagonismo das comunidades tradicionais nos projetos de desenvolvimento local sustentável. Acreditamos que essa polarização e dificuldade de construção de consensos baseados em princípios de colaboração e cooperação é resultado da própria complexidade da gestão da governança em fóruns híbridos como esse, complexidade esta derivada da coexistência de valores, preferências e interesses muitas vezes divergentes. Mas também conseguimos identificar outros fatores específicos, resultados de características locais e/ou escolhas realizadas pelo coletivo de atores ao longo da trajetória. A enorme assimetria de informação e poder entre os atores participantes, por exemplo, dificulta o desenvolvimento de confiança e mecanismos de reciprocidade. A adoção de uma coordenação colegiada, por outro lado, acabou comprometendo o surgimento de uma liderança ou instância neutra que funcionasse como mediadora dos processos de negociação entre as partes. O profundo desconhecimento das possibilidades – mas, sobretudo, também dos limites – dos mosaicos de áreas protegidas e unidades de conservação como instrumento de gestão territorial dentro do amplo Sistema Nacional de Unidades de Conservação gera expectativas de solução de conflitos que dependem de decisões que são tomadas alhures, o que acaba frustrando e desmobilizando os participantes de ambos os lados. A imagem de aparente apatia dos órgãos ambientais federais e estaduais, por sua vez, derivada da morosidade dos processos públicos, tende a infundir ainda mais incerteza no relacionamento entre os atores.
Resumo:
LOPES-DOS-SANTOS, V. , CONDE-OCAZIONEZ, S. ; NICOLELIS, M. A. L. , RIBEIRO, S. T. , TORT, A. B. L. . Neuronal assembly detection and cell membership specification by principal component analysis. Plos One, v. 6, p. e20996, 2011.
Resumo:
TORT, A. B. L. ; SCHEFFER-TEIXEIRA, R ; Souza, B.C. ; DRAGUHN, A. ; BRANKACK, J. . Theta-associated high-frequency oscillations (110-160 Hz) in the hippocampus and neocortex. Progress in Neurobiology , v. 100, p. 1-14, 2013.
Resumo:
Titanium is a biomaterial widely employed in biomedical applications (implants, prostheses, valves, stents). Several heat treatments are usually used in order to obtain physical properties required to different applications. This work studied the influence of the heat treatment on microstructure of commercial pure titanium, and their consequences in growth and proliferation of MC3T3-E1 cells. Discs of titanium were treated in different temperatures, and characterized by optical microscopy, image analysis, wettabillity, roughness, hardness and X-ray diffraction. After the heat treatment, significant modifications in these properties were observed. Pattern images of titanium, before and after the cell culture, were compared by overlapping to analyze the influence of microstructure in microstructure and preferences guidance cells. However, in general, titanium discs that showed a higher residual strength also presented an increase of cells numbers on surface
Resumo:
This work aims to develop a methodology for analysis of images using overlapping, which assists in identification of microstructural features in areas of titanium, which may be associated with its biological response. That way, surfaces of titanium heat treated for 08 (eight) different ways have been subjected to a test culture of cells. It was a relationship between the grain, texture and shape of grains of surface of titanium (attacked) trying to relate to the process of proliferation and adhesion. We used an open source software for cell counting adhered to the surface of titanium. The juxtaposition of images before and after cell culture was obtained with the aid of micro-hardness of impressions made on the surface of samples. From this image where there is overlap, it is possible to study a possible relationship between cell growth with microstructural characteristics of the surface of titanium. This methodology was efficient to describe a set of procedures that are useful in the analysis of surfaces of titanium subjected to a culture of cells
Resumo:
Visceral leishmaniasis (VL) has undergone changes in terms of clinical and epidemiological presentation worldwide. Urbanization has been described in different regions of Brazil and the world, as well as in the state of Rio Grande do Norte. These changes have impacted in the clinical outcome of Leishmania infection. A new clinical entity called co-infection of HIV/Leishmania has been described as a consequence of overlapping areas of occurrence of VL and HIV / AIDS in different countries including Brazil. The aim of this study was to define the process of periurbanization of the LV and describe a case series of co-infection HIV / Leishmania in Rio Grande do Norte. A new demographic pattern of VL was detected, with an increase in the number VL adult male subjects. Analysis of spatial distribution of VL in the state of Rio Grande do Norte showed that in the past 20 years VL tends to occur in larger cities and therefore the highest risk disease is greater in the eastern and western regions. The first region included Natal, the state capital, where the process of suburbanization began in 1990, and more recently the city of Mossoró, the second largest state, where periurbanization began in the last five years. In 1990, the emergence of co-infection HIV/Leishmania in the state was observed. Case-control study revealed that the new clinical entity affects adult males, who acquired HIV through sexual intercourse, 40% of those with a preivous history of leishmania infection Relapse and death from LV is increased in HIV positive compared with HIV-negative patients matched by sex and age. This pattern is similar to the observed in Europe, except of the route of transmission, where in Europe occured concomitantly, by parenteral route in drug users. Analysis of spatial distribution identified overlapping new areas of occurrence of HIV / AIDS and LV potentially signaling to increased risk of this new clinical entity as described above. Therefore, epidemiological surveillance for co-infection HIV / Leishmania should be adopted in all areas of risk of VL. At the same time, it is necessary to evaluate drug resistance currently used in the treatment of VL, as well as parenteral transmission of L infantum/ chagasi in areas where drug dependence is a risk factor for HIV acquisition
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
O presente trabalho procura identificar as idéias principais na construção histórica do pensamento neo-empirista a partir da visão mecânica do mundo e do método hipotético-dedutivo de Descartes. O método indutivo moderno é apresentado por Bacon e os empiristas ingleses colaboram na questão do pensamento “a posteriori”. No século XIX surge o positivismo que exclui a metafísica e considera a explicação dos fatos apenas como relações de sucessão e similidade. É nesse âmbito que se constroem as bases do método experimental moderno. No início do século XX, se desenvolve a ciência neoempirista cujas principais proposições são (1) a idéia da verificabilidade como forma de conferir a veracidade das teorias a partir da indução e das probabilidades e (2) o crescimento contínuo e acumulativo do conhecimento científico. Popper apresenta a impossibilidade de se obter grandes teorias oriundas da indução e sugere a substituição da indução pela dedução e da verificabilidade pela falseabilidade. Kuhn afirma que o conhecimento científico depende de paradigmas convencionais e Lakatos explica que a ciência não é uma sucessão temporal de períodos normais e revoluções, e sim sua justaposição.
Resumo:
Since its synthesis over 48 years rifampicin has been extensively studied. The literature reports the characterization of thermal events for rifampicin in nitrogen atmosphere, however, no characterization in synthetic air atmosphere. This paper aims to contribute to the thermal study of rifampicin through thermal (TG / DTG, DTA, DSC and DSC - FOTOVISUAL ) and non-thermal (HPLC, XRPD , IR - FTIR , PCA) and its main degradation products ( rifampicin quinone , rifampicin N-oxide 3- formylrifamicin). Rifampicin study was characterized as polymorph form II from techniques DSC, IR and XRPD. TG curves for rifampicin in synthetic air atmosphere showed higher thermal stability than those in N2, when analyzed Ti and Ea. There was characterized as overlapping events melting and recrystallization under N2 with weight loss in the TG curve, suggesting concomitant decomposition. Images DSCFotovisual showed no fusion event and showed darkening of the sample during analysis. The DTA curve in synthetic air atmosphere was visually different from DTA and DSC curves under N2, suggesting the absence of recrystallization and melting or presence only decomposition. The IV - FTIR analysis along with PCA analysis and HPLC and thermal data suggest that rifampicin for their fusion is concomitant decomposition of the sample in N2 and fusion events and recrystallization do not occur in synthetic air atmosphere. Decomposition products studied in an air atmosphere showed no melting event and presented simultaneously to the decomposition initiation of heating after process loss of water and / or solvent, varying the Ti initiating events. The Coats - Redfern , Madsudhanan , Van Krevelen and Herwitz - Mertzger kinetic parameters for samples , through the methods of OZAWA , in an atmosphere of synthetic air and / or N2 rifampicin proved more stable than its degradation products . The kinetic data showed good correlation between the different models employed. In this way we contribute to obtaining information that may assist studies of pharmaceutical compatibility and stability of substances
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
O presente trabalho objetivou estudar a uniformidade de distribuição da calda de pulverização contendo herbicidas, em culturas perenes arbustivas, utilizando combinações de pontas de pulverização em barra lateral protegida, conduzida a pequena distância do alvo, na linha de culturas perenes arbustivas. Para isso, foi desenvolvido um programa computacional que permite simular a sobreposição do leque de pulverização, da porção protegida da barra e do leque formado pela ponta de pulverização do bico mais extremo da barra, de modo diferente dos demais programas. Após a seleção das melhores combinações de pontas de pulverização por meio de simulação dos padrões de deposição da pulverização das pontas individuais e dos coeficientes de variação menores que 10%, algumas dessas combinações foram testadas em campo, aplicando-se um herbicida sistêmico (glyphosate) e outro com ação de contato (paraquat). Os resultados indicaram que o programa computacional desenvolvido pode constituir-se em um auxiliar valioso para a seleção das melhores combinações de pontas de pulverização. em aplicações tanto do herbicida glyphosate quanto do paraquat, com volumes de calda mais reduzidos,abaixo de 100 L ha-1, destacaram-se como arranjos mais eficientes: a) pontas TT110015 distanciadas de 52,5 cm entre si, combinadas com a ponta TK-0,5 na extremidade da barra a 50 cm do último bico, operando na velocidade de 5 km h-1 e pressão de 103 kPa (15 lbf pol-2), com distância de caminhamento do tronco da árvore de 20 cm ; b) pontas SMCE2 distanciadas de 15 cm entre si, combinadas com a ponta TK-0,5 na extremidade da barra de 20 cm do último bico, operando na velocidade de 4 km h-1 e pressão de 414 kPa (60 lbf pol-2), com distância de caminhamento do tronco da árvore de 30 cm ; e c) pontas TLX-2 distanciadas de 15 cm entre si, combinadas com a ponta TK-0,5 na extremidade da barra de 20 cm do último bico, operando à velocidade de 5 km h-1 e pressão de 414 kPa (60 lbf pol-2), com distância de caminhamento do tronco da árvore de 30 cm. A velocidade de deslocamento do pulverizador de 5 km h-1 proporcionou melhores condições para que os herbicidas estudados apresentassem melhor controle de plantas daninhas, quando comparada com a velocidade de deslocamento do pulverizador de 4 km h-1.