276 resultados para paramètre de nuisance


Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME Les fibres textiles sont des produits de masse utilisés dans la fabrication de nombreux objets de notre quotidien. Le transfert de fibres lors d'une action délictueuse est dès lors extrêmement courant. Du fait de leur omniprésence dans notre environnement, il est capital que l'expert forensique évalue la valeur de l'indice fibres. L'interprétation de l'indice fibres passe par la connaissance d'un certain nombre de paramètres, comme la rareté des fibres, la probabilité de leur présence par hasard sur un certain support, ainsi que les mécanismes de transfert et de persistance des fibres. Les lacunes les plus importantes concernent les mécanismes de transfert des fibres. A ce jour, les nombreux auteurs qui se sont penchés sur le transfert de fibres ne sont pas parvenus à créer un modèle permettant de prédire le nombre de fibres que l'on s'attend à retrouver dans des circonstances de contact données, en fonction des différents paramètres caractérisant ce contact et les textiles mis en jeu. Le but principal de cette recherche est de démontrer que la création d'un modèle prédictif du nombre de fibres transférées lors d'un contact donné est possible. Dans le cadre de ce travail, le cas particulier du transfert de fibres d'un tricot en laine ou en acrylique d'un conducteur vers le dossier du siège de son véhicule a été étudié. Plusieurs caractéristiques des textiles mis en jeu lors de ces expériences ont été mesurées. Des outils statistiques (régression linéaire multiple) ont ensuite été utilisés sur ces données afin d'évaluer l'influence des caractéristiques des textiles donneurs sur le nombre de fibres transférées et d'élaborer un modèle permettant de prédire le nombre de fibres qui vont être transférées à l'aide des caractéristiques influençant significativement le transfert. Afin de faciliter la recherche et le comptage des fibres transférées lors des expériences de transfert, un appareil de recherche automatique des fibres (liber finder) a été utilisé dans le cadre de cette recherche. Les tests d'évaluation de l'efficacité de cet appareil pour la recherche de fibres montrent que la recherche automatique est globalement aussi efficace qu'une recherche visuelle pour les fibres fortement colorées. Par contre la recherche automatique perd de son efficacité pour les fibres très pâles ou très foncées. Une des caractéristiques des textiles donneurs à étudier est la longueur des fibres. Afin de pouvoir évaluer ce paramètre, une séquence d'algorithmes de traitement d'image a été implémentée. Cet outil permet la mesure de la longueur d'une fibre à partir de son image numérique à haute résolution (2'540 dpi). Les tests effectués montrent que les mesures ainsi obtenues présentent une erreur de l'ordre du dixième de millimètre, ce qui est largement suffisant pour son utilisation dans le cadre de cette recherche. Les résultats obtenus suite au traitement statistique des résultats des expériences de transfert ont permis d'aboutir à une modélisation du phénomène du transfert. Deux paramètres sont retenus dans le modèle: l'état de la surface du tissu donneur et la longueur des fibres composant le tissu donneur. L'état de la surface du tissu est un paramètre tenant compte de la quantité de fibres qui se sont détachées de la structure du tissu ou qui sont encore faiblement rattachées à celle-ci. En effet, ces fibres sont les premières à se transférer lors d'un contact, et plus la quantité de ces fibres par unité de surface est importante, plus le nombre de fibres transférées sera élevé. La longueur des fibres du tissu donneur est également un paramètre important : plus les fibres sont longues, mieux elles sont retenues dans la structure du tissu et moins elles se transféreront. SUMMARY Fibres are mass products used to produce numerous objects encountered everyday. The transfer of fibres during a criminal action is then very common. Because fibres are omnipresent in our environment, the forensic expert has to evaluate the value of the fibre evidence. To interpret fibre evidence, the expert has to know some parameters as frequency of fibres,' probability of finding extraneous fibres by chance on a given support, and transfer and persistence mechanisms. Fibre transfer is one of the most complex parameter. Many authors studied fibre transfer mechanisms but no model has been created to predict the number of fibres transferred expected in a given type of contact according to parameters as characteristics of the contact and characteristics of textiles. The main purpose of this research is to demonstrate that it is possible to create a model to predict the number of fibres transferred during a contact. In this work, the particular case of the transfer of fibres from a knitted textile in wool or in acrylic of a driver to the back of a carseat has been studied. Several characteristics of the textiles used for the experiments were measured. The data obtained were then treated with statistical tools (multiple linear regression) to evaluate the influence of the donor textile characteristics on the number of úbers transferred, and to create a model to predict this number of fibres transferred by an equation containing the characteristics having a significant influence on the transfer. To make easier the searching and the counting of fibres, an apparatus of automatic search. of fibers (fiber finder) was used. The tests realised to evaluate the efficiency of the fiber finder shows that the results obtained are generally as efficient as for visual search for well-coloured fibres. However, the efficiency of automatic search decreases for pales and dark fibres. One characteristic of the donor textile studied was the length of the fibres. To measure this parameter, a sequence of image processing algorithms was implemented. This tool allows to measure the length of a fibre from it high-resolution (2'540 dpi) numerical image. The tests done shows that the error of the measures obtained are about some tenths of millimetres. This precision is sufficient for this research. The statistical methods applied on the transfer experiment data allow to create a model of the transfer phenomenon. Two parameters are included in the model: the shedding capacity of the donor textile surface and the length of donor textile fibres. The shedding capacity of the donor textile surface is a parameter estimating the quantity of fibres that are not or slightly attached to the structure of the textile. These fibres are easily transferred during a contact, and the more this quantity of fibres is high, the more the number of fibres transferred during the contact is important. The length of fibres is also an important parameter: the more the fibres are long, the more they are attached in the structure of the textile and the less they are transferred during the contact.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L?objectif de ce travail de thèse est l?étude des changements conformationels des biomacromolecules à l?échelle d?une molécule unique. Pour cela on a utilisé la Microscopie à Force Atomique (AFM) appliqué à l?étude des protéines et des acides nucléiques déposés sur une surface. Dans ce type de microscopie, une pointe très fine attachée à l?extrémité d?un levier est balayée au dessus d?une surface. L?interaction de la pointe avec la surface de l?échantillon induit la déflection du levier et ce phénomène permet de reconstruire la topographie de l?échantillon. Très importante dans cette technique est la possibilité de travailler en liquide. Cela permet de étudier les biomolécules en conditions quasi-physiologiques sans qu?elles perdent leur activité. On a étudié GroEL, la chaperonin de E.coli, qui est un homo oligomère avec une structure à double anneau qui joue un rôle très important dans le repliement des protéines dénaturées et celles qui viennent d?être synthétisées. En particulier on a focalisé notre attention sur la stabilité mécanique et sur les changements conformationels qui ont lieu pendant l?activité de GroEL. Une analyse détaillée des changements dans la stabilité mécanique et des effets produits par la liaison et l?hydrolyse de l?ATP est présentée dans ce travail. On a montré que le point le plus faible dans la structure de GroEL est l?interface entre les deux anneaux et que l?étape critique dans l?affaiblissement de la structure est l?hydrolyse de l?ATP. En ce qui concerne le changement conformationel, le passage d?une surface hydrophobe à hydrophile, induit par l?hydrolyse de l?ATP, a été montré. Ensuite on a étudié le changement dans la conformation et dans la topologie de l?ADN résultant de l?interaction avec des molécules spécifiques et en réponse à l?exposition des cellules de E.coli à des conditions de stress. Le niveau de surenroulement est un paramètre très sensible, de façon variée, à tous ces facteurs. Les cellules qui ont crus à de températures plus élevées que leur température optimale ont la tendance à diminuer le nombre de surenroulements négatif pour augmenter la stabilité thermique de leur plasmides. L?interaction avec des agents intercalant induit une transition d?un surenroulement négatif à un surenroulement positif d?une façon dépendante de la température. Finalement, l?effet de l?interaction de l?ADN avec des surfaces différentes a été étudié et une application pratique sur les noeuds d?ADN est présentée.<br/><br/>The aim of the present thesis work is to study the conformational changes of biomacromolecules at the single molecule level. To that end, Atomic Force Microcopy (AFM) imaging was performed on proteins and nucleic acids adsorbed onto a surface. In this microcopy technique a very sharp tip attached at the end of a soft cantilever is scanned over a surface, the interaction of the tip with the sample?s surface will induce the deflection of the cantilever and thus it will make possible to reconstruct the topography. A very important feature of AFM is the possibility to operate in liquid, it means with the sample immersed in a buffer solution. This allows one to study biomolecules in quasi-physiological conditions without loosing their activity. We have studied GroEL, the chaperonin of E.coli, which is a double-ring homooligomer which pays a very important role in the refolding of unfolded and newly synthetized polypeptides. In particular we focus our attention on its mechanical stability and on the conformational change that it undergoes during its activity cycle. A detailed analysis of the change in mechanical stability and how it is affected by the binding and hydrolysis of nucleotides is presented. It has been shown that the weak point of the chaperonin complex is the interface between the two rings and that the critical step to weaken the structure is the hydrolysis of ATP. Concerning the conformational change we have directly measured, with a nanometer scale resolution, the switching from a hydrophobic surface to a hydrophilic one taking place inside its cavity induced by the ATP hydrolysis. We have further studied the change in the DNA conformation and topology as a consequence of the interaction with specific DNA-binding molecules and the exposition of the E.coli cells to stress conditions. The level of supercoiling has been shown to be a very sensitive parameter, even if at different extents, to all these factors. Cells grown at temperatures higher than their optimum one tend to decrease the number of the negative superhelical turns in their plasmids in order to increase their thermal stability. The interaction with intercalating molecules induced a transition from positive to negative supercoiling in a temperature dependent way. The effect of the interaction of the DNA with different surfaces has been investigated and a practical application to DNA complex knots is reported.<br/><br/>Observer les objets biologiques en le touchant Schématiquement le Microscope a Force Atomique (AFM) consiste en une pointe très fine fixée a l?extrémité d?un levier Lors de l?imagerie, la pointe de l?AFM gratte la surface de l?échantillon, la topographie de celui-ci induit des déflections du levier qui sont enregistrées au moyen d?un rayon laser réfléchi par le levier. Ces donnés sont ensuit utilisés par un ordinateur pour reconstituer en 3D la surface de l?échantillon. La résolution de l?instrument est fonction entre autre de la dureté, de la rugosité de l?échantillon et de la forme de la pointe. Selon l?échantillon et la pointe utilisée la résolution de l?AFM peut aller de 0.1 A (sur des cristaux) a quelque dizaine de nanomètres (sur des cellules). Cet instrument est particulierment intéressant en biologie en raison de sa capacité à imager des échantillons immergés dans un liquide, c?est à dire dans des conditions quasiphysiologiques. Dans le cadre de ce travail nous avons étudié les changements conformationels de molécules biologiques soumises à des stimulations externes. Nous avons essentielment concentré notre attention sur des complexes protéiques nommé Chaperons Moléculaires et sur des molécules d?ADN circulaire (plasmides). Les Chaperons sont impliqués entre autre dans la résistance des organismes vivants aux stress thermiques et osmotiques. Leur activité consiste essentielment à aider les autres protéines à être bien pliés dans leur conformation finale et, en conséquence, à eviter que ils soient dénaturées et que ils puissent s?agréger. L?ADN, quant à lui est la molécule qui conserve, dans sa séquence, l?information génétique de tous les organismes vivants. Ce travail a spécifiquement concerné l?étude des changements conformationels des chaperonins suit a leur activation par l?ATP. Ces travaux ont montrés a l?échelle de molécule unique la capacité de ces protéines de changer leur surface de hydrophobique a hydrophilique. Nous avons également utilisé l?AFM pour étudier le changement du nombre des surenroulements des molécules d?ADN circulaire lors d?une exposition à un changement de température et de force ionique. Ces travaux ont permis de montrer comment la cellule regle le nombre de surenroulements dans ces molécules pour répondre et contrôler l?expression génétique même dans de conditions extrêmes. Pour les deux molécules en général, c?était très important d?avoir la possibilité de observer leur transitions d?une conformation a l?autre directement a l?échelle d?une seul molécule et, surtout, avec une résolution largement au dessous des la longueur d?onde de la lumière visible que représente le limite pour l?imagerie optique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We describe the distribution and the ecology of three Armillaria species observed in silver fir (Abies alba) forests of the Pyrenees. We surveyed the presence and abundance of Armillaria above and belowground in 29 stands. Isolates were identified by the PCR-RFLP pattern of the IGS-1 region of their ribosomal DNA. We measured several ecological and management parameters of each stand in order to describe Armillaria infected sites. Armillaria cepistipes was the most abundant of three species observed. Armillaria gallica was dominant in soils with a higher pH and at lower elevations. Armillaria ostoyae seemed to be more frequent in stands where A. alba recently increased its dominance relative to other forest tree species. Thinning activities correlated with an increased abundance of Armillaria belowground. In 83% of the stands the same Armillaria species was observed above and belowground. It seems that in a conifer forest, A. cepistipes can be more frequent than A. ostoyae, a virulent conifer pathogen. Since logging is related to a higher abundance of Armillaria in the soil, the particular Armillaria species present in a given stand could be considered an additional site factor when making management decisions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se estudia la dinámica de erosión por escorrentía superficial en unas laderas montañosas de la cabecera de la Ribera Salada (cuenca del Sagre), distinguiendo tres usos de suelo: (1) sotobosque de quejigo, (2) terrazas agrícolas y (3) márgenes de matorral. Se analiza la aplicabilidad de los modelos Erosion2D y EUROSEM. En cuanto al diseño experimental, durante seis meses se controlaron episodios naturales mediante un pluviógrafo y quince parcelas con canales Gerlach. Se realizaron, asimismo, seis simulaciones de lluvia que permitieron estudiar episodios de alta intensidad. De manera complementaria se llevaron a cabo las mediciones topográficas, los muestreos y las experimentaciones necesarias para caracterizar hidrológicamente la zona y aplicar los modelos de erosión. Como principales conclusiones se pueden señalar las siguientes: a) las tasas de escorrentía y erosión registradas fueron muy bajas, y se constató la importancia de procesos diferentes al flujo hortoniano, lo cual condiciona el uso de estos modelos, b) el modelo E2D no permite estudiar episodios de baja magnitud como los registrados, y su aplicación se debería restringir a terrenos menos porosos, c) la aplicación directa del modelo EUROSEM origina errores importantes; se ha calibrado un parámetro para reducir el error en el cálculo de la escorrentía, y d) el estudio de la variabilidad de la humedad precedente del suelo resulta de gran importancia para la modelización de estos procesos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The exhaust emissions of vehicles greatly contribute to environmental pollution. Diesel engines are extremely fuel-efficient. However, the exhaust compounds emitted by diesel engines are both a health hazard and a nuisance to the public. This paper gives an overview of the emission control of particulates from diesel exhaust compounds. The worldwide emission standards are summarized. Possible devices for reducing diesel pollutants are discussed. It is clear that after-treatment devices are necessary. Catalytic converters that collect particulates from diesel exhaust and promote the catalytic burn-off are examined. Finally, recent trends in diesel particulate emission control by novel catalysts are presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The need to clean-up heavy metal contaminated environment can not be over emphasized. This paper describes the adsorption isotherm studies of Cd (II), Pb (II) and Zn (II) ions from aqueous solution using unmodified and EDTA-modified maize cob. Maize cob was found to be an excellent adsorbent for the removal of these metal ions. The amount of metal ions adsorbed increased as the initial concentration increased. Also, EDTA - modification enhanced the adsorption capacity of maize cob probably due to the chelating ability of EDTA. Among the three adsorption isotherm tested, Dubinin-Radushkevich gave the best fit with R² value ranging from 0.9539 to 0.9973 and an average value of 0.9819. This is followed by Freundlich isotherm (Ave. 0.9783) and then the Langmuir isotherm (Ave. 0.7637). The sorption process was found to be a physiosorption process as seen from the apparent energy of adsorption which ranged from 2.05KJ\mol to 4.56KJ\mol. Therefore, this study demonstrates that maize cob which is an environmental pollutant could be used to adsorb heavy metals and achieve cleanliness thereby abating environmental nuisance caused by the maize cob.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Waste has been incinerated for energy utilization for more than a hundred years, but the harmful emissions emitted from the incineration plants did not begin to cause concern until the 1980s. Many plants were shutdown and the waste incineration plant in Kyläsaari Helsinki was one of them. In later years, new landfill regulations have increased the interest in waste incineration. During the last year, four new plants were taken into operation in Finland, Westenergy in Vaasa among them. The presence of dust has been observed indoors at Westenergy waste incineration plant. Dust is defined as particles with a diameter above 10 μm, while fine particles have a diameter smaller than 2.5 μm, ultrafine under 0.1 μm and nanoparticles under 0.05 μm. In recent years, the focus of particle health research has been changed to investigate smaller particles. Ultrafine particles have been found to be more detrimental to health than larger particles. Limit values regulating the concentrations of ultrafine particles have not been determined yet. The objective of this thesis was to investigate dust and particles present inside the Westenergy waste incineration facility. The task was to investigate the potential pollutant sources and to give recommendations of how to minimize the presence of dust and particles in the power plant. The total particle number concentrations and size distributions where measured at 15 points inside the plant with an Engine Exhaust Particle Sizer (EEPS) Spectrometer. The measured particles were mainly in the ultrafine size range. Dust was only visually investigated, since the main purpose was to follow the dust accumulation. The measurement points inside the incineration plant were chosen according to investigate exposure to visitors and workers. At some points probable leakage of emissions were investigated. The measurements were carried out during approximately one month in March–April 2013. The results of the measurements showed that elevated levels of dust and particles are present in the indoor air at the waste incineration plant. The cleanest air was found in the control room, warehouse and office. The most polluted air was near the sources that were investigated due to possible leakage and in the bottom ash hall. However, the concentrations were near measured background concentrations in European cities and no leakage could be detected. The high concentrations were assumed to be a result of a lot of dust and particles present on surfaces that had not been cleaned in a while. The main source of the dust and particles present inside the waste incineration plant was thought to be particles and dust from the outside air. Other activities in the area around the waste incineration facility are ground work activities, stone crushing and traffic, which probably are sources of particle formation. Filtration of the outside air prior entering the facility would probably save personnel and visitors from nuisance and save in cleaning and maintenance costs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Traditionally biologists have often considered individual differences in behaviour or physiology as a nuisance when investigating a population of individuals. These differences have mostly been dismissed as measurement errors or as non-adaptive variation around an adaptive population mean. Recent research, however, challenges this view. While long acknowledged in human personality studies, the importance of individual variation has recently entered into ecological and evolutionary studies in the form of animal personality. The concept of animal personality focuses on consistent differences within and between individuals in behavioural and physiological traits across time and contexts and its ecological and evolutionary consequences. Nevertheless, a satisfactory explanation for the existence of personality is still lacking. Although there is a growing number of explanatory theoretical models, there is still a lack of empirical studies on wild populations showing how traditional life-history tradeoffs can explain the maintenance of variation in personality traits. In this thesis, I first investigate the validity of variation in allostatic load or baseline corticosterone (CORT) concentrations as a measure for differences in individual quality. The association between CORT and quality has recently been summarised under the “CORT-fitness hypothesis”, which states that a general negative relationship between baseline CORT and fitness exists. I then continue to apply the concept of animal personality to depict how the life-history trade-off between survival and fecundity is mediated in incubating female eiders (Somateria mollissima), thereby maintaining variation in behaviour and physiology. To this end, I investigated breeding female eiders from a wild population that breeds in the archipelago around Tvärminne Zoological Station, SW Finland. The field data used was collected from 2008 to 2012. The overall aim of the thesis was to show how differences in personality and stress responsiveness are linked to a life-history context. In the four chapters I examine how the life-history trade-off between survival and fecundity could be resolved depending on consistent individual differences in escape behaviour, stress physiology, individual quality and nest-site selection. First, I corroborated the validity of the “CORT-fitness hypothesis”, by showing that reproductive success is generally negatively correlated with serum and faecal baseline CORT levels. The association between individual quality and baseline CORT is, however, context dependent. Poor body condition was associated with elevated serum baseline CORT only in older breeders, while a larger reproductive investment (clutch mass) was associated with elevated serum baseline CORT among females breeding late in the season. Interestingly, good body condition was associated with elevated faecal baseline CORT levels in late breeders. High faecal baseline CORT levels were positively related to high baseline body temperature, and breeders in poor condition showed an elevated baseline body temperature, but only on open islands. The relationship between stress physiology and individual quality is modulated by breeding experience and breeding phenology. Consequently, the context dependency highlights that this relationship has to be interpreted cautiously. Additionally, I verified if stress responsiveness is related to risk-taking behaviour. Females who took fewer risks (longer flight initiation distance) showed a stronger stress response (measured as an increase in CORT concentration after capture and handling of the bird). However, this association was modulated by breeding experience and body condition, with young breeders and those in poor body condition showing the strongest relationship between risktaking and stress responsiveness. Shy females (longer flight initiation distance) also incubated their clutch for a shorter time. Additionally, I demonstrated that stress responsiveness and predation risk interact with maternal investment and reproductive success. Under high risk of predation, females that incubated a larger clutch showed a stronger stress response. Surprisingly, these females also exhibited higher reproductive success than females with a weaker stress response. Again, these context dependent results suggest that the relationship between stress responsiveness and risk-taking behaviour should not be studied in isolation from individual quality and that stress responsiveness may show adaptive plasticity when individuals are exposed to different predation regimes. Finally, female risk-taking behaviour and stress coping styles were also related to nest-site choice. Less stress responsive females more frequently occupied nests with greater coverage that were farther away from the shoreline. Females nesting in nests with medium cover and farther from the shoreline had higher reproductive success. These results suggest that different personality types are distributed non-randomly in space. In this thesis I was able to demonstrate that personalities and stress coping strategies are persistent individual characteristics, which express measurable effects on fitness. This suggests that those traits are exposed to natural selection and thereby can evolve. Furthermore, individual variation in personality and stress coping strategy is linked to the alternative ways in which animals resolve essential life-history trade-offs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the context of multivariate linear regression (MLR) models, it is well known that commonly employed asymptotic test criteria are seriously biased towards overrejection. In this paper, we propose a general method for constructing exact tests of possibly nonlinear hypotheses on the coefficients of MLR systems. For the case of uniform linear hypotheses, we present exact distributional invariance results concerning several standard test criteria. These include Wilks' likelihood ratio (LR) criterion as well as trace and maximum root criteria. The normality assumption is not necessary for most of the results to hold. Implications for inference are two-fold. First, invariance to nuisance parameters entails that the technique of Monte Carlo tests can be applied on all these statistics to obtain exact tests of uniform linear hypotheses. Second, the invariance property of the latter statistic is exploited to derive general nuisance-parameter-free bounds on the distribution of the LR statistic for arbitrary hypotheses. Even though it may be difficult to compute these bounds analytically, they can easily be simulated, hence yielding exact bounds Monte Carlo tests. Illustrative simulation experiments show that the bounds are sufficiently tight to provide conclusive results with a high probability. Our findings illustrate the value of the bounds as a tool to be used in conjunction with more traditional simulation-based test methods (e.g., the parametric bootstrap) which may be applied when the bounds are not conclusive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes finite-sample procedures for testing the SURE specification in multi-equation regression models, i.e. whether the disturbances in different equations are contemporaneously uncorrelated or not. We apply the technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] to obtain exact tests based on standard LR and LM zero correlation tests. We also suggest a MC quasi-LR (QLR) test based on feasible generalized least squares (FGLS). We show that the latter statistics are pivotal under the null, which provides the justification for applying MC tests. Furthermore, we extend the exact independence test proposed by Harvey and Phillips (1982) to the multi-equation framework. Specifically, we introduce several induced tests based on a set of simultaneous Harvey/Phillips-type tests and suggest a simulation-based solution to the associated combination problem. The properties of the proposed tests are studied in a Monte Carlo experiment which shows that standard asymptotic tests exhibit important size distortions, while MC tests achieve complete size control and display good power. Moreover, MC-QLR tests performed best in terms of power, a result of interest from the point of view of simulation-based tests. The power of the MC induced tests improves appreciably in comparison to standard Bonferroni tests and, in certain cases, outperforms the likelihood-based MC tests. The tests are applied to data used by Fischer (1993) to analyze the macroeconomic determinants of growth.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We extend the class of M-tests for a unit root analyzed by Perron and Ng (1996) and Ng and Perron (1997) to the case where a change in the trend function is allowed to occur at an unknown time. These tests M(GLS) adopt the GLS detrending approach of Dufour and King (1991) and Elliott, Rothenberg and Stock (1996) (ERS). Following Perron (1989), we consider two models : one allowing for a change in slope and the other for both a change in intercept and slope. We derive the asymptotic distribution of the tests as well as that of the feasible point optimal tests PT(GLS) suggested by ERS. The asymptotic critical values of the tests are tabulated. Also, we compute the non-centrality parameter used for the local GLS detrending that permits the tests to have 50% asymptotic power at that value. We show that the M(GLS) and PT(GLS) tests have an asymptotic power function close to the power envelope. An extensive simulation study analyzes the size and power in finite samples under various methods to select the truncation lag for the autoregressive spectral density estimator. An empirical application is also provided.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes a model of natural-resource exploitation when private ownership requires costly enforcement activities. For a given wage rate, it is shown how enforcement costs can increase with labor's average productivity on a resource site. As a result, it is never optimal for the site owner to produce at the point where marginal productivity equals the wage rate. It may even be optimal to exploit at a point exhibiting negative marginal returns. An important parameter in the analysis is the prevailing wage rate. When wages are low, further decreases in the wage rates can reduce the returns from resource exploitation. At sufficiently low wages, positive returns can be rendered impossible to achieve and the site is abandoned to a free-access exploitation. The analysis provides some clues as to why property rights may be more difficult to delineate in less developed countries. It proposes a different framework from which to address normative issues such as the desirability of free trade with endogenous enforcement costs, the optimality of private decisions to enforce property rights, the effect of income distribution on property rights enforceability, etc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we propose exact likelihood-based mean-variance efficiency tests of the market portfolio in the context of Capital Asset Pricing Model (CAPM), allowing for a wide class of error distributions which include normality as a special case. These tests are developed in the frame-work of multivariate linear regressions (MLR). It is well known however that despite their simple statistical structure, standard asymptotically justified MLR-based tests are unreliable. In financial econometrics, exact tests have been proposed for a few specific hypotheses [Jobson and Korkie (Journal of Financial Economics, 1982), MacKinlay (Journal of Financial Economics, 1987), Gib-bons, Ross and Shanken (Econometrica, 1989), Zhou (Journal of Finance 1993)], most of which depend on normality. For the gaussian model, our tests correspond to Gibbons, Ross and Shanken’s mean-variance efficiency tests. In non-gaussian contexts, we reconsider mean-variance efficiency tests allowing for multivariate Student-t and gaussian mixture errors. Our framework allows to cast more evidence on whether the normality assumption is too restrictive when testing the CAPM. We also propose exact multivariate diagnostic checks (including tests for multivariate GARCH and mul-tivariate generalization of the well known variance ratio tests) and goodness of fit tests as well as a set estimate for the intervening nuisance parameters. Our results [over five-year subperiods] show the following: (i) multivariate normality is rejected in most subperiods, (ii) residual checks reveal no significant departures from the multivariate i.i.d. assumption, and (iii) mean-variance efficiency tests of the market portfolio is not rejected as frequently once it is allowed for the possibility of non-normal errors.