903 resultados para Bayesian inference on precipitation
Post-Transcriptional Regulation of BCL2 mRNA by the RNA-Binding Protein ZFP36L1 in Malignant B Cells
Resumo:
The human ZFP36 zinc finger protein family consists of ZFP36, ZFP36L1, and ZFP36L2. These proteins regulate various cellular processes, including cell apoptosis, by binding to adenine uridine rich elements in the 3′ untranslated regions of sets of target mRNAs to promote their degradation. The pro-apoptotic and other functions of ZFP36 family members have been implicated in the pathogenesis of lymphoid malignancies. To identify candidate mRNAs that are targeted in the pro-apoptotic response by ZFP36L1, we reverse-engineered a gene regulatory network for all three ZFP36 family members using the ‘maximum information coefficient’ (MIC) for target gene inference on a large microarray gene expression dataset representing cells of diverse histological origin. Of the three inferred ZFP36L1 mRNA targets that were identified, we focussed on experimental validation of mRNA for the pro-survival protein, BCL2, as a target for ZFP36L1. RNA electrophoretic mobility shift assay experiments revealed that ZFP36L1 interacted with the BCL2 adenine uridine rich element. In murine BCL1 leukemia cells stably transduced with a ZFP36L1 ShRNA lentiviral construct, BCL2 mRNA degradation was significantly delayed compared to control lentiviral expressing cells and ZFP36L1 knockdown in different cell types (BCL1, ACHN, Ramos), resulted in increased levels of BCL2 mRNA levels compared to control cells. 3′ untranslated region luciferase reporter assays in HEK293T cells showed that wild type but not zinc finger mutant ZFP36L1 protein was able to downregulate a BCL2 construct containing the BCL2 adenine uridine rich element and removal of the adenine uridine rich core from the BCL2 3′ untranslated region in the reporter construct significantly reduced the ability of ZFP36L1 to mediate this effect. Taken together, our data are consistent with ZFP36L1 interacting with and mediating degradation of BCL2 mRNA as an important target through which ZFP36L1 mediates its pro-apoptotic effects in malignant B-cells.
Resumo:
The CD209 gene family that encodes C-type lectins in primates includes CD209 (DC-SIGN), CD209L (L-SIGN) and CD209L2. Understanding the evolution of these genes can help understand the duplication events generating this family, the process leading to the repeated neck region and identify protein domains under selective pressure. We compiled sequences from 14 primates representing 40 million years of evolution and from three non-primate mammal species. Phylogenetic analyses used Bayesian inference, and nucleotide substitutional patterns were assessed by codon-based maximum likelihood. Analyses suggest that CD209 genes emerged from a first duplication event in the common ancestor of anthropoids, yielding CD209L2 and an ancestral CD209 gene, which, in turn, duplicated in the common Old World primate ancestor, giving rise to CD209L and CD209. K(A)/K(S) values averaged over the entire tree were 0.43 (CD209), 0.52 (CD209L) and 0.35 (CD209L2), consistent with overall signatures of purifying selection. We also assessed the Toll-like receptor (TLR) gene family, which shares with CD209 genes a common profile of evolutionary constraint. The general feature of purifying selection of CD209 genes, despite an apparent redundancy (gene absence and gene loss), may reflect the need to faithfully recognize a multiplicity of pathogen motifs, commensals and a number of self-antigens
Resumo:
We propose an alternate parameterization of stationary regular finite-state Markov chains, and a decomposition of the parameter into time reversible and time irreversible parts. We demonstrate some useful properties of the decomposition, and propose an index for a certain type of time irreversibility. Two empirical examples illustrate the use of the proposed parameter, decomposition and index. One involves observed states; the other, latent states.
Resumo:
Les transferts horizontaux de gènes (THG) ont été démontrés pour jouer un rôle important dans l'évolution des procaryotes. Leur impact a été le sujet de débats intenses, ceux-ci allant même jusqu'à l'abandon de l'arbre des espèces. Selon certaines études, un signal historique dominant est présent chez les procaryotes, puisque les transmissions horizontales stables et fonctionnelles semblent beaucoup plus rares que les transmissions verticales (des dizaines contre des milliards). Cependant, l'effet cumulatif des THG est non-négligeable et peut potentiellement affecter l'inférence phylogénétique. Conséquemment, la plupart des chercheurs basent leurs inférences phylogénétiques sur un faible nombre de gènes rarement transférés, comme les protéines ribosomales. Ceux-ci n'accordent cependant pas autant d'importance au modèle d'évolution utilisé, même s'il a été démontré que celui-ci est important lorsqu'il est question de résoudre certaines divergences entre ancêtres d'espèces, comme pour les animaux par exemple. Dans ce mémoire, nous avons utilisé des simulations et analyser des jeux de données d'Archées afin d'étudier l'impact relatif des THG ainsi que l'impact des modèles d'évolution sur la précision phylogénétique. Nos simulations prouvent que (1) les THG ont un impact limité sur les phylogénies, considérant un taux de transferts réaliste et que (2) l'approche super-matrice est plus précise que l'approche super-arbre. Nous avons également observé que les modèles complexes expliquent non seulement mieux les données que les modèles standards, mais peuvent avoir un impact direct sur différents groupes phylogénétiques et sur la robustesse de l'arbre obtenu. Nos résultats contredisent une publication récente proposant que les Thaumarchaeota apparaissent à la base de l'arbre des Archées.
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
The Andaman-Nicobar Islands in the Bay of Bengal lies in a zone where the Indian plate subducts beneath the Burmese microplate, and therefore forms a belt of frequent earthquakes. Few efforts, not withstanding the available historical and instrumental data were not effectively used before the Mw 9.3 Sumatra-Andaman earthquake to draw any inference on the spatial and temporal distribution of large subduction zone earthquakes in this region. An attempt to constrain the active crustal deformation of the Andaman-Nicobar arc in the background of the December 26, 2004 Great Sumatra-Andaman megathrust earthquake is made here, thereby presenting a unique data set representing the pre-seismic convergence and co-seismic displacement.Understanding the mechanisms of the subduction zone earthquakes is both challenging sCientifically and important for assessing the related earthquake hazards. In many subduction zones, thrust earthquakes may have characteristic patterns in space and time. However, the mechanism of mega events still remains largely unresolved.Large subduction zone earthquakes are usually associated with high amplitude co-seismic deformation above the plate boundary megathrust and the elastic relaxation of the fore-arc. These are expressed as vertical changes in land level with the up-dip part of the rupture surface uplifted and the areas above the down-dip edge subsided. One of the most characteristic pattern associated with the inter-seismic era is that the deformation is in an opposite sense that of co-seismic period.This work was started in 2002 to understand the tectonic deformation along the Andaman-Nicobar arc using seismological, geological and geodetic data. The occurrence of the 2004 megathrust earthquake gave a new dimension to this study, by providing an opportunity to examine the co-seismic deformation associated with the greatest earthquake to have occurred since the advent of Global Positioning System (GPS) and broadband seismometry. The major objectives of this study are to assess the pre-seismic stress regimes, to determine the pre-seismic convergence rate, to analyze and interpret the pattern of co-seismic displacement and slip on various segments and to look out for any possible recurrence interval for megathrust event occurrence for Andaman-Nicobar subduction zone. This thesis is arranged in six chapters with further subdivisions dealing all the above aspects.
Resumo:
Modern computer systems are plagued with stability and security problems: applications lose data, web servers are hacked, and systems crash under heavy load. Many of these problems or anomalies arise from rare program behavior caused by attacks or errors. A substantial percentage of the web-based attacks are due to buffer overflows. Many methods have been devised to detect and prevent anomalous situations that arise from buffer overflows. The current state-of-art of anomaly detection systems is relatively primitive and mainly depend on static code checking to take care of buffer overflow attacks. For protection, Stack Guards and I-leap Guards are also used in wide varieties.This dissertation proposes an anomaly detection system, based on frequencies of system calls in the system call trace. System call traces represented as frequency sequences are profiled using sequence sets. A sequence set is identified by the starting sequence and frequencies of specific system calls. The deviations of the current input sequence from the corresponding normal profile in the frequency pattern of system calls is computed and expressed as an anomaly score. A simple Bayesian model is used for an accurate detection.Experimental results are reported which show that frequency of system calls represented using sequence sets, captures the normal behavior of programs under normal conditions of usage. This captured behavior allows the system to detect anomalies with a low rate of false positives. Data are presented which show that Bayesian Network on frequency variations responds effectively to induced buffer overflows. It can also help administrators to detect deviations in program flow introduced due to errors.
Resumo:
The demand for biomass for bioenergy has increased rapidly in industrialized countries in the recent years. Biogenic energy carriers are known to reduce CO2 emissions. However, the resource-inefficient production of biomass often caused negative impacts on the environment, e.g. biodiversity losses, nitrate leaching, and erosion. The detrimental effects evolved mainly from annual crops. Therefore, the aim of modern bioenergy cropping systems is to combine yield stability and environmental benefits by the establishment of mixed-cropping systems. A particular emphasis is on perennial crops which are perceived as environmentally superior to annual crops. Agroforestry systems represent such mixed perennial cropping systems and consist of a mix of trees and arable crops or grassland within the same area of land. Agroforestry practices vary across the globe and alley cropping is a type of agroforestry system which is well adapted to the temperate zone, with a high degree of mechanization. Trees are planted in rows and crops are planted in the alleyways, which facilitates their management by machinery. This study was conducted to examine a young alley cropping system of willows and two grassland mixtures for bioenergy provision under temperate climate conditions. The first part of the thesis identified possible competition effects between willows and the two grassland mixtures. Since light seemed to be the factor most affecting the yield performance of the understory in temperate agroforestry systems, a biennial in situ artificial shade experiment was established over a separate clover-grass stand to quantify the effects of shade. Data to possible below- and aboveground interactions among willows and the two grassland mixtures and their effects on productivity, sward composition, and quality were monitored along a tree-grassland interface within the alleys. In the second part, productivity of the alley cropping system was examined on a triennial time frame and compared to separate grassland and willow stands as controls. Three different conversion technologies (combustion of hay, integrated generation of solid fuel and biogas from biomass, whole crop digestion) were applied to grassland biomass as feedstock and analyzed for its energetic potential. The energetic potential of willow wood chips was calculated by applying combustion as conversion technique. Net energy balances of separate grassland stands, agroforestry and pure willow stands evaluated their energy efficiency. Results of the biennial artificial shade experiment showed that severe shade (80 % light reduction) halved grassland productivity on average compared to a non-shaded control. White clover as heliophilous plant responded sensitively to limited radiation and its dry matter contribution in the sward decreased with increasing shade, whereas non-leguminous forbs (mainly segetal species) benefited. Changes in nutritive quality could not be confirmed by this experiment. Through the study on interactions within the alleys of the young agroforestry system it was possible to outline changes of incident light, soil temperature and sward composition of clover-grass along the tree-grassland interface. Nearly no effects of trees on precipitation, soil moisture and understory productivity occurred along the interface during the biennial experiment. Considering the results of the productivity and the net energy yield alley cropping system had lower than pure grassland stands, irrespective of the grassland seed mixture or fertilization, but was higher than that for pure willow stands. The comparison of three different energetic conversion techniques for the grassland biomass showed highest net energy yields for hay combustion, whereas the integrated generation of solid fuel and biogas from biomass (IFBB) and whole crop digestion performed similarly. However, due to the low fuel quality of hay, its direct combustion cannot be recommended as a viable conversion technique, whereas IFBB fuels were of a similar quality to wood chip from willow.
Resumo:
This paper analyzes the measure of systemic importance ∆CoV aR proposed by Adrian and Brunnermeier (2009, 2010) within the context of a similar class of risk measures used in the risk management literature. In addition, we develop a series of testing procedures, based on ∆CoV aR, to identify and rank the systemically important institutions. We stress the importance of statistical testing in interpreting the measure of systemic importance. An empirical application illustrates the testing procedures, using equity data for three European banks.
Resumo:
En este trabajo se ha estudiado el género Androcymbium (Colchicaceae) a dos niveles: macro- y micro- evolutivo. A nivel microevolutivo se ha obtenido que para las especies de Sudáfrica oriental la componente interpoblacional es muy importante para explicar la distribución de la variabilidad genética, igual que en Sudáfrica occidental. Para las especies de Namibia, la componente mas importante es la intrapoblacional, igual que en el norte de África. A nivel macroevolutivo se ha obtenido que el origen del género se sitúa en Sudáfrica occidental, datándose en 11,22 ma. Este género ha resultado ser parafilético, dada la aparición conjunta en un mismo clado de especies de Androcymbium y Colchicum, y las especies del norte de África derivan de un taxa de Namibia que llegó a la cuenca Mediterránea a principios del Plioceno gracias a la formación de un corredor árido entre las zonas áridas del suroeste y este de África.
Resumo:
The vertical structure of the relationship between water vapor and precipitation is analyzed in 5 yr of radiosonde and precipitation gauge data from the Nauru Atmospheric Radiation Measurement (ARM) site. The first vertical principal component of specific humidity is very highly correlated with column water vapor (CWV) and has a maximum of both total and fractional variance captured in the lower free troposphere (around 800 hPa). Moisture profiles conditionally averaged on precipitation show a strong association between rainfall and moisture variability in the free troposphere and little boundary layer variability. A sharp pickup in precipitation occurs near a critical value of CWV, confirming satellite-based studies. A lag–lead analysis suggests it is unlikely that the increase in water vapor is just a result of the falling precipitation. To investigate mechanisms for the CWV–precipitation relationship, entraining plume buoyancy is examined in sonde data and simplified cases. For several different mixing schemes, higher CWV results in progressively greater plume buoyancies, particularly in the upper troposphere, indicating conditions favorable for deep convection. All other things being equal, higher values of lower-tropospheric humidity, via entrainment, play a major role in this buoyancy increase. A small but significant increase in subcloud layer moisture with increasing CWV also contributes to buoyancy. Entrainment coefficients inversely proportional to distance from the surface, associated with mass flux increase through a deep lower-tropospheric layer, appear promising. These yield a relatively even weighting through the lower troposphere for the contribution of environmental water vapor to midtropospheric buoyancy, explaining the association of CWV and buoyancy available for deep convection.
Resumo:
Previous work has demonstrated that observed and modeled climates show a near-time-invariant ratio of mean land to mean ocean surface temperature change under transient and equilibrium global warming. This study confirms this in a range of atmospheric models coupled to perturbed sea surface temperatures (SSTs), slab (thermodynamics only) oceans, and a fully coupled ocean. Away from equilibrium, it is found that the atmospheric processes that maintain the ratio cause a land-to-ocean heat transport anomaly that can be approximated using a two-box energy balance model. When climate is forced by increasing atmospheric CO2 concentration, the heat transport anomaly moves heat from land to ocean, constraining the land to warm in step with the ocean surface, despite the small heat capacity of the land. The heat transport anomaly is strongly related to the top-of-atmosphere radiative flux imbalance, and hence it tends to a small value as equilibrium is approached. In contrast, when climate is forced by prescribing changes in SSTs, the heat transport anomaly replaces ‘‘missing’’ radiative forcing over land by moving heat from ocean to land, warming the land surface. The heat transport anomaly remains substantial in steady state. These results are consistent with earlier studies that found that both land and ocean surface temperature changes may be approximated as local responses to global mean radiative forcing. The modeled heat transport anomaly has large impacts on surface heat fluxes but small impacts on precipitation, circulation, and cloud radiative forcing compared with the impacts of surface temperature change. No substantial nonlinearities are found in these atmospheric variables when the effects of forcing and surface temperature change are added.
Resumo:
Policy makers in the European Union are envisioning the introduction of a community farm animal welfare label which would allow consumers to align their consumption habits with their farm animal welfare preferences. For welfare labelling to be viable the market for livestock products produced to higher welfare standards has to be sufficiently segmented with consumers having sufficiently distinct and behaviourally consistent preferences. The present study investigates consumers’ preferences for meat produced to different welfare standards using a hypothetical welfare score. Data is obtained from a contingent valuation study carried out in Britain. The ordered probit model was estimated using Bayesian inference to obtain mean willingness to pay. We find decreasing marginal WTP as animal welfare levels increase and that people’s preferences for different levels of farm animal welfare are sufficiently differentiated making the introduction of a labelling scheme in the form of a certified rating system appear feasible.
Resumo:
Human-made transformations to the environment, and in particular the land surface, are having a large impact on the distribution (in both time and space) of rainfall, upon which all life is reliant. Focusing on precipitation, soil moisture and near-surface temperature, we compare data from Phase 5 of the Climate Modelling Intercomparison Project (CMIP5), as well as blended observational–satellite data, to see how the interaction between rainfall and the land surface differs (or agrees) between the models and reality, at daily timescales. As expected, the results suggest a strong positive relationship between precipitation and soil moisture when precipitation leads and is concurrent with soil moisture estimates, for the tropics as a whole. Conversely a negative relationship is shown when soil moisture leads rainfall by a day or more. A weak positive relationship between precipitation and temperature is shown when either leads by one day, whereas a weak negative relationship is shown over the same time period between soil moisture and temperature. Temporally, in terms of lag and lead relationships, the models appear to be in agreement on the overall patterns of correlation between rainfall and soil moisture. However, in terms of spatial patterns, a comparison of these relationships across all available models reveals considerable variability in the ability of the models to reproduce the correlations between precipitation and soil moisture. There is also a difference in the timings of the correlations, with some models showing the highest positive correlations when precipitation leads soil moisture by one day. Finally, the results suggest that there are 'hotspots' of high linear gradients between precipitation and soil moisture, corresponding to regions experiencing heavy rainfall. These results point to an inability of the CMIP5 models to simulate a positive feedback between soil moisture and precipitation at daily timescales. Longer timescale comparisons and experiments at higher spatial resolutions, where the impact of the spatial heterogeneity of rainfall on the initiation of convection and supply of moisture is included, would be expected to improve process understanding further.