897 resultados para Doctorat
Resumo:
Erythrocyte concentrates (ECs) are the major labile blood product being transfused worldwide, aiming at curing anemia of diverse origins. In Switzerland, ECs are stored at 4 °C up to 42 days in saline-adenine-glucose-mannitol (SAGM). Such storage induces cellular lesions, altering red blood cells (RBCs) metabolism, protein content and rheological properties. A hot debate exists regarding the impact of the storage lesions, thus the age of ECs on transfusion-related clinical adverse outcomes. Several studies tend to show that poorer outcomes occur in patients receiving older blood products. However, no clear association was demonstrated up to date. While metabolism and early rheological changes are reversible through transfusion of the blood units, oxidized proteins cannot be repaired, and it is likely such irreversible damages would affect the quality of the blood product and the efficiency of the transfusion. In vivo, RBCs are constantly exposed to oxygen fluxes, and are thus well equipped to deal with oxidative challenges. Moreover, functional 20S proteasome complexes allow for recognition and proteolysis of fairly oxidized protein, and some proteins can be eliminated from RBCs by the release of microvesicles. The present PhD thesis is involved in a global research project which goal is to characterize the effect of processing and storage on the quality of ECs. Assessing protein oxidative damages during RBC storage is of major importance to understand the mechanisms of aging of stored RBCs. To this purpose, redox proteomic-based investigations were conducted here. In a first part, cysteine oxidation and protein carbonylation were addressed via 2D-DIGE and derivatization-driven immunodetection approaches, respectively. Then, the oxidized sub- proteomes were characterized through LC-MS/MS identification of proteins in spots of interest (cysteine oxidation) or affinity-purified carbonylated proteins. Gene ontology annotation allowed classifying targets of oxidation according to their molecular functions. In a third part, the P20S activity was evaluated throughout the storage period of ECs, and its susceptibility to highly oxidized environment was investigated. The potential defensive role of microvesiculation was also addressed through the quantification of eliminated carbonylated proteins. We highlighted distinct protein groups differentially affected by cysteine oxidation, either reversibly or irreversibly. In addition, soluble extracts showed a decrease in carbonylation at the beginning of the storage and membrane extracts revealed increasing carbonylation after 4 weeks of storage. Engaged molecular functions revealed that antioxidant (AO) are rather reversibly oxidized at their cysteine residue(s), but are irreversibly oxidized through carbonylation. In the meantime, the 20S proteasome activity is decreased by around 40 % at the end of the storage period. Incubation of fresh RBCs extracts with exogenous oxidized proteins showed a dose-dependent and protein-dependent inhibitory effect. Finally, we proved that the release of microvesicles allows the elimination of increasing quantities of carbonylated proteins. Taken together, these results revealed an oxidative pathway model of RBCs storage, on which further investigation towards improved storage conditions will be based. -- Les concentrés érythrocytaires (CE) sont le produit sanguin le plus délivré au monde, permettant de traiter différentes formes d'anémies. En Suisse, les CE sont stocké à 4 °C pendant 42 jours dans une solution saline d'adénine, glucose et mannitol (SAGM). Une telle conservation induit des lésions de stockage qui altèrent le métabolisme, les protéines et les propriétés rhéologique du globule rouge (GR). Un débat important concerne l'impact du temps de stockage des CE sur les risques de réaction transfusionnelles, certaines études tentant de démontrer que des transfusions de sang vieux réduiraient l'espérance de vie des patients. Cependant, aucune association concrète n'a été prouvée à ce jour. Alors que les modifications du métabolisme et changement précoces des propriétés rhéologiques sont réversibles suite à la transfusion du CE, les protéines oxydées ne peuvent être réparées, et il est probable que de telles lésions affectent la qualité et l'efficacité des produits sanguins. In vivo, les GR sont constamment exposés à l'oxygène, et sont donc bien équipés pour résister aux lésions oxydatives. De plus, les complexes fonctionnels de proteasome 20S reconnaissent et dégradent les protéines modérément oxydées, et certaines protéines peuvent être éliminées par les microparticules. Cette thèse de doctorat est imbriquée dans un projet de recherche global ayant pour objectif la caractérisation des effets de la préparation et du stockage sur la qualité des GR. Evaluer les dommages oxydatifs du GR pendant le stockage est primordial pour comprendre les mécanismes de vieillissement des produits sanguin. Dans ce but, des recherches orientées redoxomique ont été conduites. Dans une première partie, l'oxydation des cystéines et la carbonylation des protéines sont évaluées par électrophorèse bidimensionnelle différentielle et par immunodétection de protéines dérivatisées. Ensuite, les protéines d'intérêt ainsi que les protéines carbonylées, purifiées par affinité, sont identifiées par spectrométrie de masse en tandem. Les protéines cibles de l'oxydation sont classées selon leur fonction moléculaire. Dans une troisième partie, l'activité protéolytique du protéasome 20S est suivie durant la période de stockage. L'impact du stress oxydant sur cette activité a été évalué en utilisant des protéines exogènes oxydées in vitro. Le potentiel rôle défensif de la microvesiculation a également été étudié par la quantification des protéines carbonylées éliminées. Dans ce travail, nous avons observé que différents groupes de protéines sont affectés par l'oxydation réversible ou irréversible de leurs cystéines. De plus, une diminution de la carbonylation en début de stockage dans les extraits solubles et une augmentation de la carbonylation après 4 semaines dans les extraits membranaires ont été montrées. Les fonctions moléculaires engagées par les protéines altérées montrent que les défenses antioxydantes sont oxydées de façon réversible sur leurs résidus cystéines, mais sont également irréversiblement carbonylées. Pendant ce temps, l'activité protéolytique du protéasome 20S décroit de 40 % en fin de stockage. L'incubation d'extraits de GR en début de stockage avec des protéines oxydées exogènes montre un effet inhibiteur « dose-dépendant » et « protéine-dépendant ». Enfin, les microvésicules s'avèrent éliminer des quantités croissantes de protéines carbonylées. La synthèse de ces résultats permet de modéliser une voie oxydative du stockage des GRs, à partir de laquelle de futures recherches seront menées avec pour but l'amélioration des conditions de stockage.
Resumo:
Aquest treball de recerca, realizat amb mestres especialistes de música de l'etapa primària, exposa diversos models d'interpretació de la cançó, prèvia exposició dels diversos elements que en configuren el caràcter.
Resumo:
This doctoral thesis examines a recent phenomenon in European higher education, namely the reform of doctoral education. On the basis of a number of case studies, consisting of Swiss and Norwegian doctoral schools, and their institutional, national and international context, it demonstrates to what extent changes appear in doctoral education and its governance. Findings indicate new practices regarding doctoral students' recruitment, curricular component, supervision, scientific exchange, follow-up and their career. Doctoral education's character is not anymore exclusively determined by individual supervisors, but increasingly by interdisciplinary and interinstitutional colleges of academics. Finally, general governance patterns are identified: according to the type of scientific discipline and higher education institution, the institution's size and national political system, the field of higher education is more or less dominated by New Public Management or Network Governance characteristics.
Resumo:
Objective: Health status measures usually have an asymmetric distribution and present a highpercentage of respondents with the best possible score (ceiling effect), specially when they areassessed in the overall population. Different methods to model this type of variables have beenproposed that take into account the ceiling effect: the tobit models, the Censored Least AbsoluteDeviations (CLAD) models or the two-part models, among others. The objective of this workwas to describe the tobit model, and compare it with the Ordinary Least Squares (OLS) model,that ignores the ceiling effect.Methods: Two different data sets have been used in order to compare both models: a) real datacomming from the European Study of Mental Disorders (ESEMeD), in order to model theEQ5D index, one of the measures of utilities most commonly used for the evaluation of healthstatus; and b) data obtained from simulation. Cross-validation was used to compare thepredicted values of the tobit model and the OLS models. The following estimators werecompared: the percentage of absolute error (R1), the percentage of squared error (R2), the MeanSquared Error (MSE) and the Mean Absolute Prediction Error (MAPE). Different datasets werecreated for different values of the error variance and different percentages of individuals withceiling effect. The estimations of the coefficients, the percentage of explained variance and theplots of residuals versus predicted values obtained under each model were compared.Results: With regard to the results of the ESEMeD study, the predicted values obtained with theOLS model and those obtained with the tobit models were very similar. The regressioncoefficients of the linear model were consistently smaller than those from the tobit model. In thesimulation study, we observed that when the error variance was small (s=1), the tobit modelpresented unbiased estimations of the coefficients and accurate predicted values, specially whenthe percentage of individuals wiht the highest possible score was small. However, when theerrror variance was greater (s=10 or s=20), the percentage of explained variance for the tobitmodel and the predicted values were more similar to those obtained with an OLS model.Conclusions: The proportion of variability accounted for the models and the percentage ofindividuals with the highest possible score have an important effect in the performance of thetobit model in comparison with the linear model.
Resumo:
Objective: To describe the methodology of Confirmatory Factor Analyis for categorical items and to apply this methodology to evaluate the factor structure and invariance of the WHO-Disability Assessment Schedule (WHODAS-II) questionnaire, developed by the World HealthOrganization.Methods: Data used for the analysis come from the European Study of Mental Disorders(ESEMeD), a cross-sectional interview to a representative sample of the general population of 6 european countries (n=8796). Respondents were administered a modified version of theWHODAS-II, that measures functional disability in the previous 30 days in 6 differentdimensions: Understanding and Communicating; Self-Care, Getting Around, Getting Along withOthers, Life Activities and Participation. The questionnaire includes two types of items: 22severity items (5 points likert) and 8 frequency items (continuous). An Exploratory factoranalysis (EFA) with promax rotation was conducted on a random 50% of the sample. Theremaining half of the sample was used to perform a Confirmatory Factor Analysis (CFA) inorder to compare three different models: (a) the model suggested by the results obtained in theEFA; (b) the theoretical model suggested by the WHO with 6 dimensions; (c) a reduced modelequivalent to model b where 4 of the frequency items are excluded. Moreover, a second orderfactor was also evaluated. Finally, a CFA with covariates was estimated in order to evaluatemeasurement invariance of the items between Mediterranean and non-mediterranean countries.Results: The solution that provided better results in the EFA was that containing 7 factors. Twoof the frequency items presented high factor loadings in the same factor, and one of thempresented factor loadings smaller than 0.3 with all the factors. With regard to the CFA, thereduced model (model c) presented the best goodness of fit results (CFI=0.992,TLI=0.996,RMSEA=0.024). The second order factor structure presented adequate goodness of fit (CFI=0.987,TLI=0.991, RMSEA=0.036). Measurement non-invariance was detected for one of the items of thequestionnaire (FD20 ¿ Embarrassment due to health problems).Conclusions: AFC confirmed the initial hypothesis about the factorial structure of the WHODAS-II in 6factors. The second order factor supports the existence of a global dimension of disability. The use of 4of the frequency items is not recommended in the scoring of the corresponding dimensions.
Resumo:
Trees are a great bank of data, named sometimes for this reason as the "silentwitnesses" of the past. Due to annual formation of rings, which is normally influenced directly by of climate parameters (generally changes in temperature and moisture or precipitation) and other environmental factors; these changes, occurred in the past, are"written" in the tree "archives" and can be "decoded" in order to interpret what hadhappened before, mainly applied for the past climate reconstruction.Using dendrochronological methods for obtaining samples of Pinus nigra fromthe Catalonian PrePirineous region, the cores of 15 trees with total time spine of about 100 - 250 years were analyzed for the tree ring width (TRW) patterns and had quite high correlation between them (0.71 ¿ 0.84), corresponding to a common behaviour for the environmental changes in their annual growth.After different trials with raw TRW data for standardization in order to take outthe negative exponential growth curve dependency, the best method of doubledetrending (power transformation and smoothing line of 32 years) were selected for obtaining the indexes for further analysis.Analyzing the cross-correlations between obtained tree ring width indexes andclimate data, significant correlations (p<0.05) were observed in some lags, as forexample, annual precipitation in lag -1 (previous year) had negative correlation with TRW growth in the Pallars region. Significant correlation coefficients are between 0.27- 0.51 (with positive or negative signs) for many cases; as for recent (but very short period) climate data of Seu d¿Urgell meteorological station, some significant correlation coefficients were observed, of the order of 0.9.These results confirm the hypothesis of using dendrochronological data as aclimate signal for further analysis, such as reconstruction of climate in the past orprediction in the future for the same locality.
Resumo:
Generally, medicine books are concentrated almost exclusively in explaining methodology that analyzes fixed measures, measures done in a certain moment, nevertheless the evolution of the measurement and correct interpretation of the missed values are very important and sometimes can give the key information of the results obtained. Thus, the analysis of the temporary series and spectral analysis or analysis of the time series in the dominion of frequencies can be regarded as an appropriate tool for this kind of studies.In this work the frequency of the pulsating secretion of luteinizing hormone LH (thatregulates the fertile life of women) were analyzed in order to determine the existence of the significant frequencies obtained by analysis of Fourier. Detection of the frequencies, with which the pulsating secretion of the LH takes place, is a quite difficult question due topresence of the random errors in measures and samplings, i.e. that pulsating secretions of small amplitude are not detected and disregarded. In physiology it is accepted that cyclical patterns in the secretion of the LH exist and in the results of this research confirm this pattern and determine its frequency presented in the corresponded periodograms to each of studied cycle. The obtained results can be used as key pattern for future sampling frequencies in order to ¿catch¿ the significant picks of the luteinizing hormone and reflect on time forproductivity treatment of women.
Resumo:
Prémices d'un travail de doctorat sur le corpus épigraphique de la cité des Helvètes, cet article établit la synthèse de nos connaissances actuelles des inscriptions funéraires retrouvées sur le territoire de la Suisse moderne.
Resumo:
Se basant sur leurs thèses de doctorat respectifs, les auteurs mènent une réflexion commune autour de la production de règles sociales informelles suite à la réduction et à la flexibilisation du temps de travail dans différents contextes. Ils montrent que ces règles conventionnelles, qui réaffirment des comportement collectifs là où une forte individualisation serait possible, ont autant une fonction de performance (faciliter l'organisation et la coordination des actes, réduire les efforts réflexifs) qu'une fonction intégratrice (permettre aux employés d'exister en tant qu'individus dans l'entreprise).
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
Summary Detection, analysis and monitoring of slope movements by high-resolution digital elevation modelsSlope movements, such as rockfalls, rockslides, shallow landslides or debris flows, are frequent in many mountainous areas. These natural hazards endanger the inhabitants and infrastructures making it necessary to assess the hazard and risk caused by these phenomena. This PhD thesis explores various approaches using digital elevation models (DEMs) - and particularly high-resolution DEMs created by aerial or terrestrial laser scanning (TLS) - that contribute to the assessment of slope movement hazard at regional and local scales.The regional detection of areas prone to rockfalls and large rockslides uses different morphologic criteria or geometric instability factors derived from DEMs, i.e. the steepness of the slope, the presence of discontinuities, which enable a sliding mechanism, and the denudation potential. The combination of these factors leads to a map of susceptibility to rockfall initiation that is in good agreement with field studies as shown with the example of the Little Mill Campground area (Utah, USA). Another case study in the Illgraben catchment in the Swiss Alps highlighted the link between areas with a high denudation potential and actual rockfall areas.Techniques for a detailed analysis and characterization of slope movements based on high-resolution DEMs have been developed for specific, localized sites, i.e. ancient slide scars, present active instabilities or potential slope instabilities. The analysis of the site's characteristics mainly focuses on rock slopes and includes structural analyses (orientation of discontinuities); estimation of spacing, persistence and roughness of discontinuities; failure mechanisms based on the structural setting; and volume calculations. For the volume estimation a new 3D approach was tested to reconstruct the topography before a landslide or to construct the basal failure surface of an active or potential instability. The rockslides at Åknes, Tafjord and Rundefjellet in western Norway were principally used as study sites to develop and test the different techniques.The monitoring of slope instabilities investigated in this PhD thesis is essentially based on multitemporal (or sequential) high-resolution DEMs, in particular sequential point clouds acquired by TLS. The changes in the topography due to slope movements can be detected and quantified by sequential TLS datasets, notably by shortest distance comparisons revealing the 3D slope movements over the entire region of interest. A detailed analysis of rock slope movements is based on the affine transformation between an initial and a final state of the rock mass and its decomposition into translational and rotational movements. Monitoring using TLS was very successful on the fast-moving Eiger rockslide in the Swiss Alps, but also on the active rockslides of Åknes and Nordnesfjellet (northern Norway). One of the main achievements on the Eiger and Aknes rockslides is to combine the site's morphology and structural setting with the measured slope movements to produce coherent instability models. Both case studies also highlighted a strong control of the structures in the rock mass on the sliding directions. TLS was also used to monitor slope movements in soils, such as landslides in sensitive clays in Québec (Canada), shallow landslides on river banks (Sorge River, Switzerland) and a debris flow channel (Illgraben).The PhD thesis underlines the broad uses of high-resolution DEMs and especially of TLS in the detection, analysis and monitoring of slope movements. Future studies should explore in more depth the different techniques and approaches developed and used in this PhD, improve them and better integrate the findings in current hazard assessment practices and in slope stability models.Résumé Détection, analyse et surveillance de mouvements de versant à l'aide de modèles numériques de terrain de haute résolutionDes mouvements de versant, tels que des chutes de blocs, glissements de terrain ou laves torrentielles, sont fréquents dans des régions montagneuses et mettent en danger les habitants et les infrastructures ce qui rend nécessaire d'évaluer le danger et le risque causé par ces phénomènes naturels. Ce travail de thèse explore diverses approches qui utilisent des modèles numériques de terrain (MNT) et surtout des MNT de haute résolution créés par scanner laser terrestre (SLT) ou aérien - et qui contribuent à l'évaluation du danger de mouvements de versant à l'échelle régionale et locale.La détection régionale de zones propices aux chutes de blocs ou aux éboulements utilise plusieurs critères morphologiques dérivés d'un MNT, tels que la pente, la présence de discontinuités qui permettent un mécanisme de glissement ou le potentiel de dénudation. La combinaison de ces facteurs d'instabilité mène vers une carte de susceptibilité aux chutes de blocs qui est en accord avec des travaux de terrain comme démontré avec l'exemple du Little Mill Campground (Utah, États-Unis). Un autre cas d'étude - l'Illgraben dans les Alpes valaisannes - a mis en évidence le lien entre les zones à fort potentiel de dénudation et les sources effectives de chutes de blocs et d'éboulements.Des techniques pour l'analyse et la caractérisation détaillée de mouvements de versant basées sur des MNT de haute résolution ont été développées pour des sites spécifiques et localisés, comme par exemple des cicatrices d'anciens éboulements et des instabilités actives ou potentielles. Cette analyse se focalise principalement sur des pentes rocheuses et comprend l'analyse structurale (orientation des discontinuités); l'estimation de l'espacement, la persistance et la rugosité des discontinuités; l'établissement des mécanismes de rupture; et le calcul de volumes. Pour cela une nouvelle approche a été testée en rétablissant la topographie antérieure au glissement ou en construisant la surface de rupture d'instabilités actuelles ou potentielles. Les glissements rocheux d'Åknes, Tafjord et Rundefjellet en Norvège ont été surtout utilisés comme cas d'étude pour développer et tester les diverses approches. La surveillance d'instabilités de versant effectuée dans cette thèse de doctorat est essentiellement basée sur des MNT de haute résolution multi-temporels (ou séquentiels), en particulier des nuages de points séquentiels acquis par SLT. Les changements topographiques dus aux mouvements de versant peuvent être détectés et quantifiés sur l'ensemble d'un glissement, notamment par comparaisons des distances les plus courtes entre deux nuages de points. L'analyse détaillée des mouvements est basée sur la transformation affine entre la position initiale et finale d'un bloc et sa décomposition en mouvements translationnels et rotationnels. La surveillance par SLT a démontré son potentiel avec l'effondrement d'un pan de l'Eiger dans les Alpes suisses, mais aussi aux glissements rocheux d'Aknes et Nordnesfjellet en Norvège. Une des principales avancées à l'Eiger et à Aknes est la création de modèles d'instabilité cohérents en combinant la morphologie et l'agencement structural des sites avec les mesures de déplacements. Ces deux cas d'étude ont aussi démontré le fort contrôle des structures existantes dans le massif rocheux sur les directions de glissement. Le SLT a également été utilisé pour surveiller des glissements dans des terrains meubles comme dans les argiles sensibles au Québec (Canada), sur les berges de la rivière Sorge en Suisse et dans le chenal à laves torrentielles de l'Illgraben.Cette thèse de doctorat souligne le vaste champ d'applications des MNT de haute résolution et particulièrement du SLT dans la détection, l'analyse et la surveillance des mouvements de versant. Des études futures devraient explorer plus en profondeur les différentes techniques et approches développées, les améliorer et mieux les intégrer dans des pratiques actuelles d'analyse de danger et surtout dans la modélisation de stabilité des versants.
Resumo:
L'estudi que seguidament descriurem va sorgir en el context del curs de doctorat "Models d'investigació a l'aula" dirigit per la Dra. J.M. Sancho del Departament de Didactica i Organització Escolar de la Universitat de Barcelona, la finalitat principal d'aquest era donar a coneixer la perspectiva de recerca qualitativa, naturalista o interpretativa mitjançant la planificació i la realització d'un treball de recerca. Els components de l'equip investigador, la majoria llicenciats en pedagogia i amb experiencia professional en el món de l'educació, actualment ens trobem en procés de realització de la tesi doctoral. Fruit de les nostres preocupacions i inquietuds del moment com a estudiants de tercer cicle, va sorgir la proposta d'investigar el fet mateix de realitzar una tesi doctoral, específicament des de Ciencies de l'Educació, tasca que tots, un dia o altre hauríem de finalitzar, en cas de voler aconseguir el desitjat grau de doctor.
Resumo:
Colour polymorphism is common in wild population. One of the main questioning of evolutionary biologists is to understand how different colour variants could have evolved and be maintained in fluctuating environments, a selective process that forces individuals to constantly adapt their strategies in order to survive. This issue is particularly true for traits that are genetically inherited. Natural selection erodes genotypes with lowest fitness (less adapted), reducing in turn global genetic variation within population. In this context, the study of the evolution and maintenance of melanin- based coloration is relevant since inter-individual variation in the deposition of these pigments is common in animal and plant kingdoms and is under strong genetic control. In this thesis, I focus on the specific case of the tawny owl (Strix aluco), a species displaying continuous variation in reddish pheomelanin-based coloration. Interestingly, empirical studies highlighted covariations between melanin-based coloration and important behavioural, physiological and life history traits. Recently, a genetic model pointed out the melanocortin system and their pleiotropic effects as a potential regulator of these covariations. Accordingly, this PhD thesis further investigates colour-specific behavioural, physiological, or life history strategies, while examining the proximate mechanisms underlying these reaction norms. We found that differently coloured tawny owls differently resolve fundamental trade-off between offspring number and quality (Chapter 1), light melanic individuals producing many low- quality offspring and dark, melanic ones producing few high-quality offspring. These reproductive strategies are likely to induce alternative physiological constraints. Indeed, we demonstrated that light melanic individuals produced higher levels of reactive oxygen species (ROS, Chapter 2), but also expressed higher levels of antioxidant (GSH, Chapters 2 & 3). Interestingly, we showed that light melanic breeding females could modulate their POMC prohormone levels according to the environmental conditions, while dark reddish ones produced constant levels of this prohormone {Chapter 4). Finally, we highlighted colour-specific patterns of prohormone convertase 1 (PCI) gene expression (Chapter 5), an enzyme responsible for POMC prohormone processing to ACTH and a- MSH, for instance. Altogether, these results provide strong evidence of colour-specific strategies, light and melanic tawny owls better coping with stressful and relaxed environments, respectively. Variation in melanin-based coloration is likely to be maintained by the heterogeneity of our study area and strong environmental stochasticity within and between years, these process favouring differently coloured tawny owls at different periods of time. From a proximate point of view, this PhD thesis supports the hypothesis that covariations between phenotypic traits and melanin-based coloration stems from the melanocortin system, especially the fundamental role of POMC gene expression and its processing to melanocortin peptides. - Le polymorphisme de couleur est une variation phénotypique très fréquente dans la nature. En biologie évolutive, une des problématiques clés est donc de comprendre comment différent morphes de couleur peuvent être apparus et maintenus au cours du temps dans des environnements aussi variables que les nôtres, surtout que ces fluctuations forcent ces morphes à s'adapter constamment pour assurer leur survie. Cette thématique est particulièrement réelle lorsque les variations phénotypiques sont héréditaires et donc sous forte influence génétique. La sélection naturelle a en effet le pouvoir d'éroder rapidement la variation génétique en éliminant les génotypes mal adaptés. Dans ce sens, l'étude de l'évolution, et de la maintenance de la coloration mélanique est donc tout à fait pertinente car la variation de coloration entre individus est très répandue à travers les règnes animal et végétal et sous forte influence génétique. Dans cette thèse, je me suis concentré sur le cas spécifique de la chouette hulotte (Strix aluco), une espèce présentant une variation continue dans la déposition de pigments pheomélaniques roux. De précédentes études ont déjà montré que cette variation de coloration était associée avec des variations de traits comportementaux, physiologiques ou d'histoire de vie. Récemment, une étude a souligné l'importance du système des mélanocortines et de leurs effets pléiotropes dans la régulation de ces covariations. En conséquence, cette thèse de doctoral a pour but d'étudier un peu plus les stratégies comportementales, physiologiques ou d'histoire de vie spécifiques à chaque morphe de couleur, tout en examinant un peu plus les mécanismes proximaux potentiellement à la base de ces normes de réactions. Nous constatons tout d'abord que les morphes de couleurs étaient associés à différentes stratégies dans la résolution de compromis telle que la production de beaucoup de jeunes ou des jeunes de qualité (Chapitre 1). Les morphes gris (dit peu mélaniques) ont tendance à produire beaucoup de jeunes mains de moindre qualité, alors que les morphes roux (dit fortement mélaniques) produisent moins de jeunes mais de meilleure qualité. Ces stratégies sont susceptibles alors d'induire certaines contraintes physiologiques. Par exemple, nous montrons que les morphes gris produisent plus de dérivés réactifs de l'oxygène (ROS, Chapitre 2), mais aussi plus d'antioxydants (GSH, Chapitres 2 & 3). Nous montrons ensuite que les femelles grises ont une plus grande capacité à moduler leur niveau de POMC prohormone dans le sang en fonction des conditions environnementales, alors que les femelles rousses gardent un niveau constant (Chapitre 4). Finalement, nous démontrons que les patterns d'expression du gène codant pour la prohormone convertase 1 varient chez des jeunes issus de parents gris ou roux (Chapitre 5). Ceci est particulièrement intéressant car cette enzyme permet de scinder la POMC prohormone en plusieurs peptides importants tels que l'ACTH ou l'a-MSH. En conclusion, ces résultats démontrent qu'il y a bel et bien des stratégies évolutives différentes entre les morphes de couleurs, les chouettes hulottes grises et rousses étant respectivement plus adaptés à des environnements stressants ou favorables. L'hétérogénéité de notre zone d'étude et la stochasticité environnementale qui caractérise ses habitats pourraient donc agir comme une source de sélection temporelle, laquelle favoriserait les différents morphes de couleurs à diverses périodes. D'un point de vue plus proximale maintenant, cette thèse de doctorat soutient l'hypothèse que les covariations observées entre la coloration mélanique et des traits phénotypiques importants sont modulées par les effets pléiotropes du système des mélanocortines, et met en avant le rôle prépondérant que pourrait jouer l'expression du gène POMC et sa post traduction en mélanocortines.
Resumo:
This PhD dissertation deals with the question of evaluating social welfare and public policy making through the works of William Stanley Jevons (1835-1882) and Léon Walras (1834-1910), two economists who lived in the 19th century. These authors, well-known for their analyses on pure economics, were also deeply interested in the social problems of their time and proposed solutions to remedy them. In accordance with utilitarianism, Jevons was convinced that the reforms implemented by public authorities should improve social welfare (viewed as dependant on individual utilities). As for Walras, he defined a justice criterion based on a particular definition of natural law, and the reforms he proposed had the objective of restoring the rights following from this definition. We have drawn two principal conclusions from our work. First, the analyses of Jevons and Walras, who are often considered marginalise, are different not only in pure economics (as suggested by Jaffé in the seventies), but also from the point of view of welfare economics (defined as a science dealing with the evaluation of different social states). Secondly, these authors propose two different ways of justifying social reforms which have similarities with modern theory even though neither Jevons nor Walras are considered pioneers of welfare economics or public economics. Based on these two conclusions, we claim that studying these authors' theories might be of interest for the evaluation of public projects by the economists of today. Not only were their problems similar to ours, but also the original ideas present in their analyses may lead to the refinement of modern methods.Résumé en françaisCette these de doctorat porte sur les manières dont deux économistes du XIXe siècle, William Stanley Jevons (1835-1882) et Léon Walras (1834-1910), abordent la question du bien- etre collectif et la prise de décision publique. Connus principalement pour leurs travaux en économie pure, ces auteurs s'intéressent également à la question sociale et proposent des solutions pour y remédier. Jevons, conformément à son adhésion à la tradition utilitariste, estime que les interventions des autorités publiques doivent avoir pour objectif l'amélioration du bien- être collectif. Quant à Walras, il adopte un critère de justice qui relève du « droit naturel » et les propositions sociales qu'il préconise sont justifiées sur la base de leur conformité avec ce dernier. A l'issue du travail effectué dans le cadre de cette thèse, nous avons abouti à deux résultats principaux : (1) Les analyses de Jevons et Walras, deux économistes qui sont souvent considérés comme des « marginalistes » diffèrent fondamentalement non seulement dans leur analyse de l'économie pure, comme Jaffé le soulignait (1976), mais également en termes d'économie du bien-être (comprise comme une science ayant pour objectif l'évaluation des différents états sociaux). (2) Il existe deux voies originales pour justifier les réformes sociales dans les oeuvres de Jevons et Walras qui partagent des similarités importantes avec les théories modernes bien que ces auteurs ne fassent pas partie des jalons généralement retenus de l'histoire de l'économie du bien-être et de l'économie publique. Ces deux résultats nous conduisent à avancer que l'étude des approches de Jevons et de Walras peut contribuer à la formulation de nouvelles solutions à des problèmes rencontrés dans l'évaluation des différentes politiques publiques, car non seulement les préoccupations de ces auteurs était similaires aux nôtres, mais vu les éléments originaux que leurs propositions comportent, elles peuvent permettre de nuancer certaines aspects des méthodes modernes.