967 resultados para Agricultural and Resource Economics


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Anthropogenic CO2 emission will lead to an increase in seawater pCO2 of up to 80-100 Pa (800-1000 µatm) within this century and to an acidification of the oceans. Green sea urchins (Strongylocentrotus droebachiensis) occurring in Kattegat experience seasonal hypercapnic and hypoxic conditions already today. Thus, anthropogenic CO2 emissions will add up to existing values and will lead to even higher pCO2 values >200 Pa (>2000 µatm). To estimate the green sea urchins' potential to acclimate to acidified seawater, we calculated an energy budget and determined the extracellular acid base status of adult S. droebachiensis exposed to moderately (102 to 145 Pa, 1007 to 1431 µatm) and highly (284 to 385 Pa, 2800 to 3800 µatm) elevated seawater pCO2 for 10 and 45 days. A 45 - day exposure to elevated pCO2 resulted in a shift in energy budgets, leading to reduced somatic and reproductive growth. Metabolic rates were not significantly affected, but ammonium excretion increased in response to elevated pCO2. This led to decreased O:N ratios. These findings suggest that protein metabolism is possibly enhanced under elevated pCO2 in order to support ion homeostasis by increasing net acid extrusion. The perivisceral coelomic fluid acid-base status revealed that S. droebachiensis is able to fully (intermediate pCO2) or partially (high pCO2) compensate extracellular pH (pHe) changes by accumulation of bicarbonate (maximum increases 2.5 mM), albeit at a slower rate than typically observed in other taxa (10 day duration for full pHe compensation). At intermediate pCO2, sea urchins were able to maintain fully compensated pHe for 45 days. Sea urchins from the higher pCO2 treatment could be divided into two groups following medium-term acclimation: one group of experimental animals (29%) contained remnants of food in their digestive system and maintained partially compensated pHe (+2.3 mM HCO3), while the other group (71%) exhibited an empty digestive system and a severe metabolic acidosis (-0.5 pH units, -2.4 mM HCO3). There was no difference in mortality between the three pCO2 treatments. The results of this study suggest that S. droebachiensis occurring in the Kattegat might be pre-adapted to hypercapnia due to natural variability in pCO2 in its habitat. We show for the first time that some echinoderm species can actively compensate extracellular pH. Seawater pCO2 values of >200 Pa, which will occur in the Kattegat within this century during seasonal hypoxic events, can possibly only be endured for a short time period of a few weeks. Increases in anthropogenic CO2 emissions and leakages from potential sub-seabed CO2 storage (CCS) sites thus impose a threat to the ecologically and economically important species S. droebachiensis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper, investigates causal relationships among agriculture, manufacturing and export in Tanzania by using time series data for the period between 1970 and 2005. The empirical results show in both sectors there is Granger causality where agriculture causes both exports and manufacturing. Exports also cause both agricultural GDP and manufacturing GDP and any two variables out of three jointly cause the third one. There is also some evidence that manufacturing does not cause export and agriculture. Regarding cointegration, pairwise agricultural GDP and export are cointegrated, export and manufacture are cointegrated. Agriculture and manufacture are cointegrated but they are lag sensitive. However, three variables, manufacturing, export and agriculture both together are cointegrated showing that they share long run relation and this has important economic implications.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Proof-Carrying Code (PCC) is a general approach to mobile code safety in which the code supplier augments the program with a certifícate (or proof). The intended benefit is that the program consumer can locally validate the certifícate w.r.t. the "untrusted" program by means of a certifícate checker—a process which should be much simpler, eíñcient, and automatic than generating the original proof. Abstraction Carrying Code (ACC) is an enabling technology for PCC in which an abstract model of the program plays the role of certifícate. The generation of the certifícate, Le., the abstraction, is automatically carried out by an abstract interpretation-based analysis engine, which is parametric w.r.t. different abstract domains. While the analyzer on the producer side typically has to compute a semantic fixpoint in a complex, iterative process, on the receiver it is only necessary to check that the certifícate is indeed a fixpoint of the abstract semantics equations representing the program. This is done in a single pass in a much more efficient process. ACC addresses the fundamental issues in PCC and opens the door to the applicability of the large body of frameworks and domains based on abstract interpretation as enabling technology for PCC. We present an overview of ACC and we describe in a tutorial fashion an application to the problem of resource-aware security in mobile code. Essentially the information computed by a cost analyzer is used to genérate cost certificates which attest a safe and efficient use of a mobile code. A receiving side can then reject code which brings cost certificates (which it cannot validate or) which have too large cost requirements in terms of computing resources (in time and/or space) and accept mobile code which meets the established requirements.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The conference program will cover all areas of environmental and resource economics, ranging from topics prevailing in the general debate, such as climate change, energy sources, water management and ecosystem services evaluation, to more specialized subjects such as biodiversity conservation or persistent organic pollutants. The congress will be held on the Faculty of Economics of the University of Girona, located in Montilivi, a city quarter situated just few minutes from the city center, conveniently connected by bus lines L8 and L11.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Debido al gran incremento de datos digitales que ha tenido lugar en los últimos años, ha surgido un nuevo paradigma de computación paralela para el procesamiento eficiente de grandes volúmenes de datos. Muchos de los sistemas basados en este paradigma, también llamados sistemas de computación intensiva de datos, siguen el modelo de programación de Google MapReduce. La principal ventaja de los sistemas MapReduce es que se basan en la idea de enviar la computación donde residen los datos, tratando de proporcionar escalabilidad y eficiencia. En escenarios libres de fallo, estos sistemas generalmente logran buenos resultados. Sin embargo, la mayoría de escenarios donde se utilizan, se caracterizan por la existencia de fallos. Por tanto, estas plataformas suelen incorporar características de tolerancia a fallos y fiabilidad. Por otro lado, es reconocido que las mejoras en confiabilidad vienen asociadas a costes adicionales en recursos. Esto es razonable y los proveedores que ofrecen este tipo de infraestructuras son conscientes de ello. No obstante, no todos los enfoques proporcionan la misma solución de compromiso entre las capacidades de tolerancia a fallo (o de manera general, las capacidades de fiabilidad) y su coste. Esta tesis ha tratado la problemática de la coexistencia entre fiabilidad y eficiencia de los recursos en los sistemas basados en el paradigma MapReduce, a través de metodologías que introducen el mínimo coste, garantizando un nivel adecuado de fiabilidad. Para lograr esto, se ha propuesto: (i) la formalización de una abstracción de detección de fallos; (ii) una solución alternativa a los puntos únicos de fallo de estas plataformas, y, finalmente, (iii) un nuevo sistema de asignación de recursos basado en retroalimentación a nivel de contenedores. Estas contribuciones genéricas han sido evaluadas tomando como referencia la arquitectura Hadoop YARN, que, hoy en día, es la plataforma de referencia en la comunidad de los sistemas de computación intensiva de datos. En la tesis se demuestra cómo todas las contribuciones de la misma superan a Hadoop YARN tanto en fiabilidad como en eficiencia de los recursos utilizados. ABSTRACT Due to the increase of huge data volumes, a new parallel computing paradigm to process big data in an efficient way has arisen. Many of these systems, called dataintensive computing systems, follow the Google MapReduce programming model. The main advantage of these systems is based on the idea of sending the computation where the data resides, trying to provide scalability and efficiency. In failure-free scenarios, these frameworks usually achieve good results. However, these ones are not realistic scenarios. Consequently, these frameworks exhibit some fault tolerance and dependability techniques as built-in features. On the other hand, dependability improvements are known to imply additional resource costs. This is reasonable and providers offering these infrastructures are aware of this. Nevertheless, not all the approaches provide the same tradeoff between fault tolerant capabilities (or more generally, reliability capabilities) and cost. In this thesis, we have addressed the coexistence between reliability and resource efficiency in MapReduce-based systems, looking for methodologies that introduce the minimal cost and guarantee an appropriate level of reliability. In order to achieve this, we have proposed: (i) a formalization of a failure detector abstraction; (ii) an alternative solution to single points of failure of these frameworks, and finally (iii) a novel feedback-based resource allocation system at the container level. Finally, our generic contributions have been instantiated for the Hadoop YARN architecture, which is the state-of-the-art framework in the data-intensive computing systems community nowadays. The thesis demonstrates how all our approaches outperform Hadoop YARN in terms of reliability and resource efficiency.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Field observations showed that in its native Texas grasslands, dodder (Cuscuta attenuata) grows more vigorously in patches of mixed host species than in monospecific host patches. Field experiments with naturally occurring host individuals demonstrated that the parasite achieved greater volume when simultaneously infesting two hosts of differing species rather than two hosts of the same species, and that this effect depends on the order in which the parasite encounters those hosts. Sodium, acting as an osmoticum, is implicated as the factor responsible for experimentally produced as well as observed field patterns.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Conceptual frameworks of dryland degradation commonly include ecohydrological feedbacks between landscape spatial organization and resource loss, so that decreasing cover and size of vegetation patches result in higher water and soil losses, which lead to further vegetation loss. However, the impacts of these feedbacks on dryland dynamics in response to external stress have barely been tested. Using a spatially-explicit model, we represented feedbacks between vegetation pattern and landscape resource loss by establishing a negative dependence of plant establishment on the connectivity of runoff-source areas (e.g., bare soils). We assessed the impact of various feedback strengths on the response of dryland ecosystems to changing external conditions. In general, for a given external pressure, these connectivity-mediated feedbacks decrease vegetation cover at equilibrium, which indicates a decrease in ecosystem resistance. Along a gradient of gradual increase of environmental pressure (e.g., aridity), the connectivity-mediated feedbacks decrease the amount of pressure required to cause a critical shift to a degraded state (ecosystem resilience). If environmental conditions improve, these feedbacks increase the pressure release needed to achieve the ecosystem recovery (restoration potential). The impact of these feedbacks on dryland response to external stress is markedly non-linear, which relies on the non-linear negative relationship between bare-soil connectivity and vegetation cover. Modelling studies on dryland vegetation dynamics not accounting for the connectivity-mediated feedbacks studied here may overestimate the resistance, resilience and restoration potential of drylands in response to environmental and human pressures. Our results also suggest that changes in vegetation pattern and associated hydrological connectivity may be more informative early-warning indicators of dryland degradation than changes in vegetation cover.