960 resultados para Economics, General|Environmental Sciences
Resumo:
Dans cet article, pour etendre la theorie du consommateur a ses choix d'epargne et de placements, on utilise a la fois la theorie usuelle, celle des caracteristiques et celle du raisonnement quantitatif. on en deduit un systeme complet de demandes comprenant simultanement les quantites de biens et de services physiques, les quantites d'actifs financiers et les prix des actifs contingents elementaires eventuels.
Resumo:
Cette thèse comprend trois essais en économie de l’environnement et des ressources naturelles sous incertitude. Le premier essai propose un modèle de jeu différentiel qui analyse la pollution globale à travers la quête à l’hégémonie politique entre pays. Le second essai utilise des données boursières pour estimer une version stochastique de la règle de Hotelling et ainsi inférer sur le rôle des ressources naturelles non renouvelables dans la diversification du risque. Le troisième essai montre comment la prise en compte des perspectives futures modifie la règle de Hotelling dans un contexte de diversification du risque.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
Rodents are involved in the transmission to human beings of several diseases, including liptospirosis, which shows high lethality rates in Sao Paulo municipality. Despite this, few studies have assessed the relationship existing between urban environmental conditions and building rodent infestation. With the purpose of clarifying this relationship, an analysis has been conducted in order to quantify the influence of environmental factors upon rodent infestation on a low-income district. Diagnosis of the environmental situation has been performed to evaluate the frequency according to which harborage, food and access sources occur, and a survey on infestation rates in 2175 dwellings in the area studied. The logistic regression analysis showed that among the environmental variables, the one that showed the closest association with rodent infestation was access; followed by harborage, and food. It was concluded that poor socioeconomic and environmental conditions in the area propitiate the occurrence of high rodent infestation rates.
Resumo:
Aeromonas species are widely distributed in aquatic environments and recent studies include the genus in the emergent pathogens group because of its frequent association with local and systemic infections in immunocompetent humans. Aiming to search for virulence genes in environmental strains of Aeromonas hydrophila and Aeromonas jandaei, we designed specific primers to detect act/hly A/aer complex and alt genes. Primers described elsewhere were used to detect ast. Eighty-seven strains previously identified using phenotypic and genotypic tests as A. hydrophila (41) and A. jandaei (46) were analysed for the presence of the virulence genes using PCR. DNA fragments of expected size were purified and directly sequenced. Among the 41 strains of A. hydrophila 70.7% (29), 97.6% (40) and 26.8% (11) possessed act/hly A/aer complex, ast and alt genes, respectively. Among the 46 strains of A. jandaei, 4.4% (2), 0% (0) and 32.6% (15) were positive for act/hly A/aer complex, ast and alt genes, respectively. Sequencing allowed for the confirmation of amplified products using BLAST. The present work proposes a specific and rapid diagnostic method to detect the main virulence determinants of Aeromonas, a genus potentially pathogenic to humans.
Resumo:
In the metropolitan area of Sao Paulo, Brazil, ozone and particulate matter ( PM) are the air pollutants that pose the greatest threat to air quality, since the PM and the ozone precursors ( nitrogen oxides and volatile organic compounds) are the main source of air pollution from vehicular emissions. Vehicular emissions can be measured inside road tunnels, and those measurements can provide information about emission factors of in-use vehicles. Emission factors are used to estimate vehicular emissions and are described as the amount of species emitted per vehicle distance driven or per volume of fuel consumed. This study presents emission factor data for fine particles, coarse particles, inhalable particulate matter and black carbon, as well as size distribution data for inhalable particulate matter, as measured in March and May of 2004, respectively, in the Janio Quadros and Maria Maluf road tunnels, both located in Sao Paulo. The Janio Quadros tunnel carries mainly light-duty vehicles, whereas the Maria Maluf tunnel carries light-duty and heavy-duty vehicles. In the Janio Quadros tunnel, the estimated light-duty vehicle emission factors for the trace elements copper and bromine were 261 and 220 mu g km(-1), respectively, and 16, 197, 127 and 92 mg km(-1), respectively, for black carbon, inhalable particulate matter, coarse particles and fine particles. The mean contribution of heavy-duty vehicles to the emissions of black carbon, inhalable particulate matter, coarse particles and fine particles was, respectively 29, 4, 6 and 6 times higher than that of light-duty vehicles. The inhalable particulate matter emission factor for heavy-duty vehicles was 1.2 times higher than that found during dynamometer testing. In general, the particle emissions in Sao Paulo tunnels are higher than those found in other cities of the world.
Resumo:
The Amazon Basin is crucial to global circulatory and carbon patterns due to the large areal extent and large flux magnitude. Biogeophysical models have had difficulty reproducing the annual cycle of net ecosystem exchange (NEE) of carbon in some regions of the Amazon, generally simulating uptake during the wet season and efflux during seasonal drought. In reality, the opposite occurs. Observational and modeling studies have identified several mechanisms that explain the observed annual cycle, including: (1) deep soil columns that can store large water amount, (2) the ability of deep roots to access moisture at depth when near-surface soil dries during annual drought, (3) movement of water in the soil via hydraulic redistribution, allowing for more efficient uptake of water during the wet season, and moistening of near-surface soil during the annual drought, and (4) photosynthetic response to elevated light levels as cloudiness decreases during the dry season. We incorporate these mechanisms into the third version of the Simple Biosphere model (SiB3) both singly and collectively, and confront the results with observations. For the forest to maintain function through seasonal drought, there must be sufficient water storage in the soil to sustain transpiration through the dry season in addition to the ability of the roots to access the stored water. We find that individually, none of these mechanisms by themselves produces a simulation of the annual cycle of NEE that matches the observed. When these mechanisms are combined into the model, NEE follows the general trend of the observations, showing efflux during the wet season and uptake during seasonal drought.
Resumo:
Recent global assessments have shown the limited coverage of protected areas across tropical biotas, fuelling a growing interest in the potential conservation services provided by anthropogenic landscapes. Here we examine the geographic distribution of biological diversity in the Atlantic Forest of South America, synthesize the most conspicuous forest biodiversity responses to human disturbances, propose further conservation initiatives for this biota, and offer a range of general insights into the prospects of forest species persistence in human-modified tropical forest landscapes worldwide. At the biome scale, the most extensive pre-Columbian habitats across the Atlantic Forest ranged across elevations below 800 masl, which still concentrate most areas within the major centers of species endemism. Unfortunately, up to 88% of the original forest habitat has been lost, mainly across these low to intermediate elevations, whereas protected areas are clearly skewed towards high elevations above 1200 masl. At the landscape scale, most remaining Atlantic Forest cover is embedded within dynamic agro-mosaics including elements such as small forest fragments, early-to-late secondary forest patches and exotic tree mono-cultures. In this sort of aging or long-term modified landscapes, habitat fragmentation appears to effectively drive edge-dominated portions of forest fragments towards an early-successional system, greatly limiting the long-term persistence of forest-obligate and forest-dependent species. However, the extent to which forest habitats approach early-successional systems, thereby threatening the bulk of the Atlantic Forest biodiversity, depends on both past and present landscape configuration. Many elements of human-modified landscapes (e.g. patches of early-secondary forests and tree mono-cultures) may offer excellent conservation opportunities, but they cannot replace the conservation value of protected areas and hitherto unprotected large patches of old-growth forests. Finally, the biodiversity conservation services provided by anthropogenic landscapes across Atlantic Forest and other tropical forest regions can be significantly augmented by coupling biodiversity corridor initiatives with biota-scale attempts to plug existing gaps in the representativeness of protected areas. (C) 2010 Elsevier Ltd. All rights reserved.
Resumo:
Prior to deforestation, So Paulo State had 79,000 km(2) covered by Cerrado (Brazilian savanna) physiognomies, but today less than 8.5% of this biodiversity hotspot remains, mostly in private lands. The global demand for agricultural goods has imposed strong pressure on natural areas, and the economic decisions of agribusiness managers are crucial to the fate of Cerrado domain remaining areas (CDRA) in Brazil. Our aim was to investigate the effectiveness of Brazilian private protected areas policy, and to propose a feasible alternative to promote CDRA protection. This article assessed the main agribusiness opportunity costs for natural areas preservation: the land use profitability and the arable land price. The CDRA percentage and the opportunity costs were estimated for 349 municipal districts of So Paulo State through secondary spatial data and profitability values of 38 main agricultural products. We found that Brazilian private protected areas policy fails to preserve CDRA, although the values of non-compliance fines were higher than average opportunity costs. The scenario with very restrictive laws on private protected areas and historical high interest rates allowed us to conceive a feasible cross compliance proposal to improve environmental and agricultural policies.
Resumo:
In southern Bahia, Brazil, large land areas are used for the production of cocoa (Theobroma cacao), which is predominantly grown under the shade of native trees in an agroforestry system locally known as cabruca. As a dominant forest-like landscape element of the cocoa region, the cabrucas play an important role in the conservation of the region`s biodiversity. The purpose of this review is to provide the scientific basis for an action plan to reconcile cocoa production and biodiversity conservation in southern Bahia. The available research collectively highlights the diversity of responses of different species and biological groups to both the habitat quality of the cabrucas themselves and to the general characteristics of the landscape, such as the relative extent and spatial configuration of different vegetation types within the landscape mosaic. We identify factors that influence directly or indirectly the occurrence of native species in the cabrucas and the wider landscape of the cocoa region and develop recommendations for their conservation management. We show that the current scientific knowledge already provides a good basis for a biodiversity friendly management of the cocoa region of southern Bahia, although more work is needed to refine some management recommendations, especially on shade canopy composition and density, and verify their economic viability. The implementation of our recommendations should be accompanied by appropriate biological and socioeconomic monitoring and the findings should inform a broad program of adaptive management of the cabrucas and the wider cocoa landscape.
Resumo:
Limited financial sources and the difficulty in performing complete surveys, allied to the speed of habitat fragmentation and the urgent necessity in select conservation areas, create the necessity of using some methodologies which bypass these problems. One possibility is the use of surrogate taxa that might be used as indicator of others groups richness and even total richness of an area. We investigated if the use of surrogate taxon is useful among seven mammal orders in Amazon. We tested through Pearson`s correlation (Bonferroni`s adjusted) if (1) there was a correlation between richness of total species and some order; (2) there was a significant pair wise correlation between species richness of each order; and (3) the combination of two orders would give better results as a surrogate for the total richness. The correlations found, in general, were positive. It means that the increase in the richness of an order was followed by its increase in another order, as well as in the total species richness. Only Didelphimorphia was significantly correlated with the total species richness. In the pair wise analyses only one assembly, Primates and Artiodactyla, was significantly correlated with total richness. Since indicator species are more effective within taxonomic groups (life-history characteristics are likely to be more different among than within major taxonomic groups), we suggest that an indicator group might be chosen for each one. In this case, for mammals from Amazon, it would be Didelphimorphia. (C) 2008 Elsevier Ltd. All rights reserved.
Resumo:
Leiopelma hochstetteri is an endangered New Zealand frog now confined to isolated populations scattered across the North Island. A better understanding of its past, current and predicted future environmental suitability will contribute to its conservation which is in jeopardy due to human activities, feral predators, disease and climate change. Here we use ecological niche modelling with all known occurrence data (N = 1708) and six determinant environmental variables to elucidate current, pre-human and future environmental suitability of this species. Comparison among independent runs, subfossil records and a clamping method allow validation of models. Many areas identified as currently suitable do not host any known populations. This apparent discrepancy could be explained by several non exclusive hypotheses: the areas have not been adequately surveyed and undiscovered populations still remain, the model is over simplistic; the species` sensitivity to fragmentation and small population size; biotic interactions; historical events. An additional outcome is that apparently suitable, but frog-less areas could be targeted for future translocations. Surprisingly, pre-human conditions do not differ markedly highlighting the possibility that the range of the species was broadly fragmented before human arrival. Nevertheless, some populations, particularly on the west of the North Island may have disappeared as a result of human mediated habitat modification. Future conditions are marked with higher temperatures, which are predicted to be favourable to the species. However, such virtual gain in suitable range will probably not benefit the species given the highly fragmented nature of existing habitat and the low dispersal ability of this species. (C) 2010 Elsevier Ltd. All rights reserved.