955 resultados para Discontinuous Crack Growth Model
Resumo:
Implicit reciprocity and growth in the international economy: a structuralist perspective. This paper discusses some of the structuralist ideas about international coordination and growth in an international system formed by countries whose productive structures and technological capabilities are strongly asymmetric. These ideas are formalized taking as a point of departure the Keynesian Balance-of-Payments constrained growth model with two countries. To this model is added a function (based on the catching up literature) in which the income elasticity of the demand for exports and imports depends on the technology gap. The model allows for discussing the inter-relations between the fiscal and the industrial and technological policies. It also allows for finding the rate of growth of autonomous expenditure in the periphery which ensures that it will use all the foreign exchange it earns in promoting economic growth (the principle of "automatic reciprocity").
Resumo:
ABSTRACTThis paper analyzes Joan Robinson's growth model, and then adapted in order to provide an exploratory taxonomy of Growth Eras. The Growth Eras or Ages were for Robinson a way to provide logical connections among output growth, capital accumulation, the degree of thriftiness, the real wage and illustrate a catalogue of growth possibilities. This modified taxonomy follows the spirit of Robinson's work, but it takes different theoretical approaches, which imply that some of her classifications do not fit perfectly the ones here suggested. Latin America has moved from a Golden Age in the 1950s and 1960s, to a Leaden Age in the 1980s, having two traverse periods, one in which the process of growth and industrialization accelerated in the late 1960s and early 1970s, which is here referred to as a Galloping Platinum Age, and one in which a process of deindustrialization, and reprimarization and maquilization of the productive structure took place, starting in the 1990s, which could be referred to as a Creeping Platinum Age.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
In this paper we provide a thorough characterization of the asset returns implied by a simple general equilibrium production economy with Chew–Dekel risk preferences and convex capital adjustment costs. When households display levels of disappointment aversion consistent with the experimental evidence, a version of the model parameterized to match the volatility of output and consumption growth generates unconditional expected asset returns and price of risk in line with the historical data. For the model with Epstein–Zin preferences to generate similar statistics, the relative risk aversion coefficient needs to be about 55, two orders of magnitude higher than the available estimates. We argue that this is not surprising, given the limited risk imposed on agents by a reasonably calibrated stochastic growth model.
Rissbildung und Zugtragverhalten von mit Stabstahl und Fasern bewehrtem Ultrahochfesten Beton (UHPC)
Resumo:
Ultrahochfester Beton (UHPC) ist ein sehr gefügedichter zementgebundener Werkstoff, der sich nicht nur durch eine hohe Druckfestigkeit, sondern auch durch einen hohen Widerstand gegen jede Form physikalischen oder chemischen Angriffs auszeichnet. Duktiles Nachbruchverhalten bei Druckversagen wird meist durch die Zugabe dünner kurzer Fasern erreicht. In Kombination mit konventioneller Betonstahl- oder Spannbewehrung ermöglicht UHPC die Ausführung sehr schlanker, weitgespannter Konstruktionen und eröffnet zugleich neue Anwendungsgebiete, wie zum Beispiel die flächenhafte Beschichtung von Brückendecks. Durch das Zusammenwirken kontinuierlicher Bewehrungselemente und diskontinuierlich verteilter kurzer Fasern ergeben sich unter Zugbeanspruchung Unterschiede gegenüber dem bekannten Stahl- und Spannbeton. In der vorliegenden Arbeit wird hierzu ein Modell entwickelt und durch eine umfangreiche Versuchsreihe abgesichert. Ausgangspunkt sind experimentelle und theoretische Untersuchungen zum Verbundverhalten von Stabstählen in einer UHPC-Matrix und zum Einfluss einer Faserzugabe auf das Reiß- und Zugtragverhalten von UHPC. Die Modellbildung für UHPC-Zugelemente mit gemischter Bewehrung aus Stabstahl und Fasern erfolgt auf der Grundlage der Vorgänge am diskreten Riss, die daher sehr ausführlich behandelt werden. Für den elastischen Verformungsbereich der Stabbewehrung (Gebrauchslastbereich) kann damit das Last-Verformungs-Verhalten für kombiniert bewehrte Bauteile mechanisch konsistent unter Berücksichtigung des bei UHPC bedeutsamen hohen Schwindmaßes abgebildet werden. Für die praktische Anwendung wird durch Vereinfachungen ein Näherungsverfahren abgeleitet. Sowohl die theoretischen als auch die experimentellen Untersuchungen bestätigen, dass der faserbewehrte UHPC bei Kombination mit kontinuierlichen Bewehrungselementen selbst kein verfestigendes Verhalten aufweisen muss, um insgesamt verfestigendes Verhalten und damit eine verteilte Rissbildung mit sehr keinen Rissbreiten und Rissabständen zu erzielen. Diese Beobachtungen können mit Hilfe der bisher zur Verfügung stehenden Modelle, die im Wesentlichen eine Superposition isoliert ermittelter Spannungs-Dehnungs-Beziehungen des Faserbetons und des reinen Stahls vorsehen, nicht nachvollzogen werden. Wie die eigenen Untersuchungen zeigen, kann durch ausreichend dimensionierte Stabstahlbewehrung zielgerichtet und ohne unwirtschaftlich hohe Fasergehalte ein gutmütiges Verhalten von UHPC auf Zug erreicht werden. Die sichere Begrenzung der Rissbreiten auf deutlich unter 0,1 mm gewährleistet zugleich die Dauerhaftigkeit auch bei ungünstigen Umgebungsbedingungen. Durch die Minimierung des Material- und Energieeinsatzes und die zu erwartende lange Nutzungsdauer lassen sich so im Sinne der Nachhaltigkeit optimierte Bauteile realisieren.
Resumo:
Die laserinduzierte Plasmaspektroskopie (LIPS) ist eine spektrochemische Elementanalyse zur Bestimmung der atomaren Zusammensetzung einer beliebigen Probe. Für die Analyse ist keine spezielle Probenpräparation nötig und kann unter atmosphärischen Bedingungen an Proben in jedem Aggregatzustand durchgeführt werden. Femtosekunden Laserpulse bieten die Vorteile einer präzisen Ablation mit geringem thermischen Schaden sowie einer hohen Reproduzierbarkeit. Damit ist fs-LIPS ein vielversprechendes Werkzeug für die Mikroanalyse technischer Proben, insbesondere zur Untersuchung ihres Ermüdungsverhaltens. Dabei ist interessant, wie sich die initiierten Mikrorisse innerhalb der materialspezifschen Struktur ausbreiten. In der vorliegenden Arbeit sollte daher ein schnelles und einfach zu handhabendes 3D-Rasterabbildungsverfahren zur Untersuchung der Rissausbreitung in TiAl, einer neuen Legierungsklasse, entwickelt werden. Dazu wurde fs-LIPS (30 fs, 785 nm) mit einem modifizierten Mikroskopaufbau (Objektiv: 50x/NA 0.5) kombiniert, welcher eine präzise, automatisierte Probenpositionierung ermöglicht. Spektrochemische Sensitivität und räumliches Auflösungsvermögen wurden in energieabhängigen Einzel- und Multipulsexperimenten untersucht. 10 Laserpulse pro Position mit einer Pulsenergie von je 100 nJ führten in TiAl zum bestmöglichen Kompromiss aus hohem S/N-Verhältnis von 10:1 und kleinen Lochstrukturen mit inneren Durchmessern von 1.4 µm. Die für das Verfahren entscheidende laterale Auflösung, dem minimalen Lochabstand bei konstantem LIPS-Signal, beträgt mit den obigen Parametern 2 µm und ist die bislang höchste bekannte Auflösung einer auf fs-LIPS basierenden Mikro-/Mapping-Analyse im Fernfeld. Fs-LIPS Scans von Teststrukturen sowie Mikrorissen in TiAl demonstrieren eine spektrochemische Sensitivität von 3 %. Scans in Tiefenrichtung erzielen mit denselben Parametern eine axiale Auflösung von 1 µm. Um die spektrochemische Sensitivität von fs-LIPS zu erhöhen und ein besseres Verständnis für die physikalischen Prozesse während der Laserablation zu erhalten, wurde in Pump-Probe-Experimenten untersucht, in wieweit fs-Doppelpulse den laserinduzierten Abtrag sowie die Plasmaemission beeinflussen. Dazu wurden in einem Mach-Zehnder-Interferometer Pulsabstände von 100 fs bis 2 ns realisiert, Gesamtenergie und Intensitätsverhältnis beider Pulse variiert sowie der Einfluss der Materialparameter untersucht. Sowohl das LIPS-Signal als auch die Lochstrukturen zeigen eine Abhängigkeit von der Verzögerungszeit. Diese wurden in vier verschiedene Regimes eingeteilt und den physikalischen Prozessen während der Laserablation zugeordnet: Die Thermalisierung des Elektronensystems für Pulsabstände unter 1 ps, Schmelzprozesse zwischen 1 und 10 ps, der Beginn des Abtrags nach mehreren 10 ps und die Expansion der Plasmawolke nach über 100 ps. Dabei wird das LIPS-Signal effizient verstärkt und bei 800 ps maximal. Die Lochdurchmesser ändern sich als Funktion des Pulsabstands wenig im Vergleich zur Tiefe. Die gesamte Abtragsrate variiert um maximal 50 %, während sich das LIPS-Signal vervielfacht: Für Ti und TiAl typischerweise um das Dreifache, für Al um das 10-fache. Die gemessenen Transienten zeigen eine hohe Reproduzierbarkeit, jedoch kaum eine Energie- bzw. materialspezifische Abhängigkeit. Mit diesen Ergebnissen wurde eine gezielte Optimierung der DP-LIPS-Parameter an Al durchgeführt: Bei einem Pulsabstand von 800 ps und einer Gesamtenergie von 65 nJ (vierfach über der Ablationsschwelle) wurde eine 40-fache Signalerhöhung bei geringerem Rauschen erzielt. Die Lochdurchmesser vergrößerten sich dabei um 44 % auf (650±150) nm, die Lochtiefe um das Doppelte auf (100±15) nm. Damit war es möglich, die spektrochemische Sensitivität von fs-LIPS zu erhöhen und gleichzeitig die hohe räumliche Auflösung aufrecht zu erhalten.
Resumo:
En los últimos años en Colombia se ha visto un crecimiento exponencial de muchos negocios que son nuevos para el Mercado Colombiano y en especial para el consumidor. Esto es el resultado de una sostenibilidad y perdurabilidad de compañías que son factores importantes para un negocio durante tiempos difíciles. Pero hay muchos componentes que son necesarios para conseguir los logros financieros y económicos esperados. Las compañías siempre están en la búsqueda de desarrollar un modelo de crecimiento exitoso para establecer un nombre y un modelo de negocio en el largo plazo. En este caso en particular, existe una compañía Colombiana llamada BODYTECH, que empezó como un negocio pequeño y ahora es una de los centros deportivos número uno de Colombia y uno de los más importantes de Latinoamérica. Los fundadores de BODYTECH lograron crear una idea de negocio completamente nueva para un mercado que nunca había visto algo parecido. Aprovecharon la oportunidad en un sector que nunca había sido explotado de esa manera antes y se convirtieron en los mejores en lo que hacen creando un nombre reconocido a nivel nacional y un excelente lugar de trabajo. Todo lo mencionado anteriormente hacen de BODYTECH una de las compañías más admiradas y consolidadas en Colombia y Latinoamérica.
Resumo:
Esta disertación busca estudiar los mecanismos de transmisión que vinculan el comportamiento de agentes y firmas con las asimetrías presentes en los ciclos económicos. Para lograr esto, se construyeron tres modelos DSGE. El en primer capítulo, el supuesto de función cuadrática simétrica de ajuste de la inversión fue removido, y el modelo canónico RBC fue reformulado suponiendo que des-invertir es más costoso que invertir una unidad de capital físico. En el segundo capítulo, la contribución más importante de esta disertación es presentada: la construcción de una función de utilidad general que anida aversión a la pérdida, aversión al riesgo y formación de hábitos, por medio de una función de transición suave. La razón para hacerlo así es el hecho de que los individuos son aversos a la pérdidad en recesiones, y son aversos al riesgo en auges. En el tercer capítulo, las asimetrías en los ciclos económicos son analizadas junto con ajuste asimétrico en precios y salarios en un contexto neokeynesiano, con el fin de encontrar una explicación teórica de la bien documentada asimetría presente en la Curva de Phillips.
Resumo:
The industrial revolution and the subsequent industrialization of the economies occurred Orst in temperate regions. We argue that this and the associated positive correlation between absolute latitude and GDP per capita is due to the fact that countries located far from the equator suffered more profound seasonal auctuations in climate, namely stronger and longer winters. We propose a growth model of biased innovations that accounts for these facts and show that countries located in temperate regions were more likely to create or adopt capital intensive modes of production. The intuition behind this result is that savings are used to smooth consumption; therefore, in places where output auctuations are more profound, savings are bigger. Because the incentives to innovate depend on the relative supply factors, economies where savings are bigger are more likely to create or adopt capital intensive technologies.
Resumo:
We present an endogenous growth model where innovations are factor saving. Technologies can be changed paying a cost and technological change takes place only if the benefits are larger than the costs. Since the gains derived from factor saving innovations depend on factor abundance, biased innovations respond to changes in factors supply. Therefore, as an economy becomes more capital abundant agents try to use capital more intensively. Consequently, (a) the elasticity of output with respect to reproducible factors depends on the capital abundance of the economy and (b) the income share of reproducible factors increases as the economy grows. Another insight of the model is that in some economies the production function converges to an AK in the long run, while in others long-run growth is zero
Resumo:
The issue of the sustainable development of rural economies in England has recently received considerable attention. This is because many of the poorest areas in the country are rural, often of high environmental quality, but suffering from high unemployment and a lack of services and facilities. The rapid decline in agricultural incomes and in-migration of affluent urban workers since 1990 has exacerbated economic inequality in such areas. A number of factors have the potential to drive rural development and this paper applies, and considers, the feasibility of a method from the USA for combining economic and environmental variables in a regional growth model to examine the hypothesis that environmental quality is an important determinant of sustainable rural development in England. The model output suggests that, although environmental quality does play a role in sustainable rural development in England there are other, more important, factors driving development. These include business and communications infra-structure, the degree and opportunities for commuting and underlying employment prospects. The robustness and limitations of the method for combining economic and environmental variables is discussed in relation to the spatial interrelatedness of Local Authority Districts in England, and conclusions are drawn about areas for refinement and improvement of the method.
Resumo:
This paper presents the results of an experimental study of resistance-curve behavior and fatigue crack growth in cementitious matrices reinforced with eco-friendly natural fibers obtained from agricultural by-products. The composites include: blast furnace slag cement reinforced with pulped fibers of sisal, banana and bleached eucalyptus pulp, and ordinary Portland cement composites reinforced with bleached eucalyptus pulp. Fracture resistance (R-curve) and fatigue crack growth behavior were studied using single-edge notched bend specimens. The observed stable crack growth behavior was then related to crack/microstructure interactions that were elucidated via scanning electron microscopy (SEM) and energy dispersive X-ray spectroscopy (EDS). Fracture mechanics models were used to quantify the observed crack-tip shielding due to crack-bridging. The implications of the results are also discussed for the design of natural fiber-reinforced composite materials for affordable housing. (C) 2009 Elsevier Ltd. All rights reserved.
Resumo:
The Atlantic Rain Forest, an important biodiversity hot spot, has faced severe habitat loss since the last century which has resulted in a highly fragmented landscape with a large number of small forest patches (<100 ha). For conservation planning it is essential to understand how current and future forest regeneration depends on ecological processes, fragment size and the connection to the regional seed pool. We have investigated the following questions by applying the forest growth simulation model FORMIND to the situation of the Atlantic Forest in the state of Sao Paulo, SE Brazil: (1) which set of parameters describing the local regeneration and level of density regulation can reproduce the biomass distribution and stem density of an old growth forest in a reserve? (2) Which additional processes apart from those describing the dynamics of an old growth forest, drive forest succession of small isolated fragments? (3) Which role does external seed input play during succession? Therefore, more than 300 tree species have been classified into nine plant functional types (PFTs), which are characterized by maximum potential height and shade tolerance. We differentiate between two seed dispersal modes: (i) local dispersal, i.e. all seedlings originated from fertile trees within the simulated area and (ii) external seed rain. Local seed dispersal has been parameterized following the pattern oriented approach, using biomass estimates of old growth forest. We have found that moderate density regulation is essential to achieve coexistence for a broad range of regeneration parameters. Considering the expected uncertainty and variability in the regeneration processes it is important that the forest dynamics are robust to variations in the regeneration parameters. Furthermore, edge effects such as increased mortality at the border and external seed rain have been necessary to reproduce the patterns for small isolated fragments. Overall, simulated biomass is much lower in the fragments compared to the continuous forest, whereas shade tolerant species are affected most strongly by fragmentation. Our simulations can supplement empirical studies by extrapolating local knowledge on edge effects of fragments to larger temporal and spatial scales. In particular our results show the importance of external seed rain and therefore highlight the importance of structural connectivity between regenerating fragments and mature forest stands. (C) 2009 Elsevier B.V. All rights reserved.
Resumo:
Acute expression of E7 oncogene from human papillomavirus (HPV) 16 or HPV18 is sufficient to overcome tumor necrosis factor (TNF)-alpha cytostatic effect on primary human keratinocytes. In the present study, we investigated the molecular basis of E7-induced TNF resistance through a comparative analysis of the effect of this cytokine on the proliferation and global gene expression of normal and E7-expressing keratinocytes. Using E7 functional mutants, we show that E7-induced TNF resistance correlates with its ability to mediate pRb degradation and cell transformation. On the other hand, this effect does not depend on E7 sequences required to override DNA damage-induced cell cycle arrest or extend keratinocyte life span. Furthermore, we identified a group of 66 genes whose expression pattern differs between normal and E7-expressing cells upon cytokine treatment. These genes are mainly involved in cell cycle regulation suggesting that their altered expression may contribute to sustained cell proliferation even in the presence of a cytostatic stimulus. Differential expression of TCN1 (transcobalamin I), IFI44 (Interferon-induced protein 44), HMGB2 (high-mobility group box 2) and FUS [Fusion (involved in t(12; 16) in malignant liposarcoma)] among other genes were further confirmed by western-blot and/or real-time polymerase chain reaction. Moreover, FUS upregulation was detected in HPV-positive cervical high-grade squamous intraepithelial lesions when compared with normal cervical tissue. Further evaluation of the role of such genes in TNF resistance and HPVassociated disease development is warranted.
Resumo:
Neste trabalho avaliamos, sob a Ûtica macroeconÙmica, o custo do atraso educacional brasileiro. Utilizamos uma vers„o do modelo de crescimento neocl·ssico com formulaÁ„o minceriana para o capital humano no qual, para uma parametrizaÁ„o apropriada, simulamos o impacto sobre os agregados macroeconÙmicos de um perÖl factÌvel de gasto em educaÁ„o com gastos sistematicamente maiores a partir de 1933. Gastos mais elevados permitiriam matrÌculas adicionais no ensino p˙blico e a maior escolaridade da populaÁ„o aumentaria a produtividade do trabalho, impactando sobre os agregados macro. Dessa forma, esta abordagem requer o valor de gastos por aluno, de modo que reproduzimos aqui o n˙mero anual de matrÌculas iniciais nos trÍs nÌveis de ensino (prim·rio, secund·rio e terci·rio), a taxa de matrÌcula bruta para cada um desses nÌveis de 1933 a 2005 e uma sugest„o de c·lculo de uma sÈrie histÛrica de gastos em educaÁ„o para o referido perÌodo. Seguindo esta abordagem, o PIB em 2004, por exemplo, poderia ser sido atÈ 27% maior do que o observado. Uma outra quest„o que buscamos responder nesse trabalho È o impacto sobre os agregados macroenÙmicos da universalizaÁ„o dos ensinos prim·rio e secund·rio j· nos anos 50 e 60. Embora tal polÌtica pudesse ter levado a um produto 26% maior em 2004, esta requeriria investimentos substanciais em educaÁ„o, algo superior a 10% do PIB de 1958 a 1962, por exemplo.