660 resultados para Sensibilité maternellle
Resumo:
Le "Chest wall syndrome" (CWS) est défini comme étant une source bénigne de douleurs thoraciques, localisées sur la paroi thoracique antérieure et provoquées par une affection musculosquelettique. Le CWS représente la cause la plus fréquente de douleurs thoraciques en médecine de premier recours. Le but de cette étude est de développer et valider un score de prédiction clinique pour le CWS. Une revue de la littérature a d'abord été effectuée, d'une part pour savoir si un tel score existait déjà, et d'autre part pour retrouver les variables décrites comme étant prédictives d'un CWS. Le travail d'analyse statistique a été effectué avec les données issues d'une cohorte clinique multicentrique de patients qui avaient consulté en médecine de premier recours en Suisse romande avec une douleur thoracique (59 cabinets, 672 patients). Un diagnostic définitif avait été posé à 12 mois de suivi. Les variables pertinentes ont été sélectionnées par analyses bivariées, et le score de prédiction clinique a été développé par régression logistique multivariée. Une validation externe de ce score a été faite en utilisant les données d'une cohorte allemande (n= 1212). Les analyses bivariées ont permis d'identifier 6 variables caractérisant le CWS : douleur thoracique (ni rétrosternale ni oppressive), douleur en lancées, douleur bien localisée, absence d'antécédent de maladie coronarienne, absence d'inquiétude du médecin et douleur reproductible à la palpation. Cette dernière variable compte pour 2 points dans le score, les autres comptent pour 1 point chacune; le score total s'étend donc de 0 à 7 points. Dans la cohorte de dérivation, l'aire sous la courbe sensibilité/spécificité (courbe ROC) est de 0.80 (95% de l'intervalle de confiance : 0.76-0.83). Avec un seuil diagnostic de > 6 points, le score présente 89% de spécificité et 45% de sensibilité. Parmi tous les patients qui présentaient un CWS (n = 284), 71% (n = 201) avaient une douleur reproductible à la palpation et 45% (n= 127) sont correctement diagnostiqués par le score. Pour une partie (n = 43) de ces patients souffrant de CWS et correctement classifiés, 65 investigations complémentaires (30 électrocardiogrammes, 16 radiographies du thorax, 10 analyses de laboratoire, 8 consultations spécialisées, et une tomodensitométrie thoracique) avaient été réalisées pour parvenir au diagnostic. Parmi les faux positifs (n = 41), on compte trois angors stables (1.8% de tous les positifs). Les résultats de la validation externe sont les suivants : une aire sous la courbe ROC de 0.76 (95% de l'intervalle de confiance : 0.73-0.79) avec une sensibilité de 22% et une spécificité de 93%. Ce score de prédiction clinique pour le CWS constitue un complément utile à son diagnostic, habituellement obtenu par exclusion. En effet, pour les 127 patients présentant un CWS et correctement classifiés par notre score, 65 investigations complémentaires auraient pu être évitées. Par ailleurs, la présence d'une douleur thoracique reproductible à la palpation, bien qu'étant sa plus importante caractéristique, n'est pas pathognomonique du CWS.
Resumo:
RAPPORT DE SYNTHESE Introduction : dans la présente étude, nous nous sommes intéressés à la vasodilatation cutanée induite par le réchauffement local (hyperémie thermique). Il est établi, qu'une partie de cette réponse vasculaire est médiée par l'oxyde nitrique (NO). De manière générale, les effets du NO peuvent être sujets à une désensibilisation, comme nous le démontre le phénomène bien connu de tolérance aux dérivés nitrés. Le but du présent travail était d'évaluer si une telle désensibilisation existe dans le cas de l'hyperémie thermique. Méthodes : nous avons donc examiné si une première stimulation thermique pouvait en atténuer une deuxième, induite plus tard sur le même site cutané à une intervalle de 2h ou 4h. Pour vérifier directement l'effet du réchauffement local sur la sensibilité de la microcirculation cutanée au NO, nous avons de plus appliqué un donneur de NO (nitroprussiate de sodium, SNP) par la technique d' iontophorèse, sur des sites cutanés préalablement soumis à un échauffement local 2h ou 4h auparavant. Nous avons examinés 12 sujets en bonne santé habituelle, de sexe masculin, non fumeurs, âgés de 18 à 30 ans, ne prenant aucune médication. Le flux sanguin dermique a été mesuré par imagerie laser Doppler (LDI, Moor Instruments) sur la face antérieur de l'avant-bras. Le réchauffement local de la peau a été effectué grâce a des petits anneaux métalliques thermo-contrôlés contenant de l'eau. La température était initialement de 34°C. Elle a été augmentée à 41 °C en une minute et maintenue à cette valeur durant 30 minutes. Cette manoeuvre a été répétée sur le même site cutané soit 2 h, soit 4h plus tard. Quant à l'iontophorèse de SNP, elle a été effectuée sur des sites ayant préalablement subi, 2h ou 4h auparavant, un échauffement unique appliqué selon la technique qui vient d'être décrite. Résultats : nous avons observé une atténuation de l'hyperémie thermique lorsque celleci était examinée 2h après un premier échauffement local. Lorsque l'intervalle était de 4h la réponse vasodilatatrice n'était pas réduite. Nous avons également observé une atténuation de la réponse vasodilatatrice au SNP lorsque celui-ci a était appliqué 2h, mais non 4h après un premier échauffement local. Conclusion :cette étude démontre que la réponse vasodilatatrice cutanée induite par l'échauffement local est bien sujette à désensibilisation, comme nous en avions formulé l'hypothèse. Ce phénomène est transitoire. Il est lié, au moins en partie, à une baisse de sensibilité de la microcirculation cutanée aux effets vasodilatateurs du NO.
Resumo:
Après avoir situé le contexte de la recherche et défini les enjeux principaux du travail, différents types de nanoparticules, ainsi que leurs principales caractéristiques, sont parcourues. L'élaboration de critères de sélection ayant permis de déterminer les types de nanoparticules potentiellement adaptés à !a détection de traces papillaires, l'étude s'est alors focalisée sur deux familles de composés: les quantum dots et les nanoparticules d'oxyde de silicium. Deux types de quantum dots ont été synthétisés : le tellurure de cadmium et le sulfure de zinc). Ils n'ont toutefois pas permis la détection de traces papillaires réalistes. En effet, seules des traces fraîches et enrichies en sécrétions ont pu être mises en évidence. Toutefois, des résultats ont été obtenus avec les deux types de quantum dots pour la détection de traces papillaires sanglantes. Après optimisation, les techniques rivalisent avec les méthodes couramment appliquées en routine. Cependant, l'interaction se produisant entre les traces et les nanoparticules n'a pas pu être déterminé. Les nanoparticules d'oxyde de silicium ont dès lors été appliquées dans le but de comprendre plus en détails les interactions avec les traces papillaires. Ces nanoparticules ont l'avantage d'offrir un très bon contrôle de surface, permettant ainsi une étude détaillée des phénomènes en jeu. Des propriétés de surface variables ont dès lors été obtenues en greffant diverses molécules à la surface des nanoparticules d'oxyde de silicium. Après avoir exploré différentes hypothèses d'interaction, il a pu être déterminé qu'une réaction chimique se produit lors qu'un groupement de type carboxyle est présent à la surface des particules. Ce groupement réagit avec les fonctions amines primaires des sécrétions. L'interaction chimique a ensuite pu être renforcée par l'utilisation d'un catalyseur, permettant d'accélérer la réaction. Dans la dernière partie du travail, les nanoparticules d'oxyde de silicium ont été comparées à une technique utilisée en routine, la fumigation de cyanoacrylate. Bien que des études plus approfondies soient nécessaires, il s'avère que l'application de nanoparticules d'oxyde de silicium permet une détection de très bonne qualité, moins dépendante du donneur que les techniques courantes. Ces résultats sont prometteurs en vue du développement d'une technique possédant une sensibilité et une sélectivité accrue. - Having situated the background of research and identified key issues of work, different types of nanoparticles and their main features are reviewed. The development of selection criteria lead to the identification of nanoparticles types potentially suitable for fingermarks detection. The study focused then On two families of compounds: quantum dots and silicon oxide nanoparticles. Two types of quantum dots were synthesized and characterised: cadmium telluride and zinc sulphide. Unfortunally, they did not allow the detection realistic fingermarks. Indeed, only fresh and groomed fingermarks have been detected. However, results have been obtained with both types of quantum dots for the detection of fingermarks in blood. After optimization procedures, the quantum dots based teshniques compete with the methods currently used in routine. However, the interaction occurring between fingermarks and nanoparticles could not be determined. Silicon oxide nanoparticles have therefore been applied in order to understand in detail the interactions With fingermarks. These nanoparticles have the advantage of providing a very good surface control, allowing am in-depth study of the phenomena involved. Versatile surface properties were therefore obtained by grafting various molecules on the surface of silicon oxide nanoparticles. Different hypotheses were investigated and it was determined that a chemical reaction occurred between the surface functionalised nanoparticles and the fingermark residues. The carboxyl groups on the surface of the particles react with primary amines of the secretions. Therefore, this interaction was improved by the use of a catalyst. In the last part of the work, silicon oxide nanoparticles were compared to a routinely used technique: cyanocrylate fuming. Although further studies are still needed, it appears that the application of silicon oxide nanoparticles allows fingermark detection of very good quality, with a lowered donor dependency. These results are promising for the development of techniques with greater sensitivity and selectivity.
Resumo:
La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.
Resumo:
Summary Ecotones are sensitive to change because they contain high numbers of species living at the margin of their environmental tolerance. This is equally true of tree-lines, which are determined by attitudinal or latitudinal temperature gradients. In the current context of climate change, they are expected to undergo modifications in position, tree biomass and possibly species composition. Attitudinal and latitudinal tree-lines differ mainly in the steepness of the underlying temperature gradient: distances are larger at latitudinal tree-lines, which could have an impact on the ability of tree species to migrate in response to climate change. Aside from temperature, tree-lines are also affected on a more local level by pressure from human activities. These are also changing as a consequence of modifications in our societies and may interact with the effects of climate change. Forest dynamics models are often used for climate change simulations because of their mechanistic processes. The spatially-explicit model TreeMig was used as a base to develop a model specifically tuned for the northern European and Alpine tree-line ecotones. For the latter, a module for land-use change processes was also added. The temperature response parameters for the species in the model were first calibrated by means of tree-ring data from various species and sites at both tree-lines. This improved the growth response function in the model, but also lead to the conclusion that regeneration is probably more important than growth for controlling tree-line position and species' distributions. The second step was to implement the module for abandonment of agricultural land in the Alps, based on an existing spatial statistical model. The sensitivity of its most important variables was tested and the model's performance compared to other modelling approaches. The probability that agricultural land would be abandoned was strongly influenced by the distance from the nearest forest and the slope, bath of which are proxies for cultivation costs. When applied to a case study area, the resulting model, named TreeMig-LAb, gave the most realistic results. These were consistent with observed consequences of land-abandonment such as the expansion of the existing forest and closing up of gaps. This new model was then applied in two case study areas, one in the Swiss Alps and one in Finnish Lapland, under a variety of climate change scenarios. These were based on forecasts of temperature change over the next century by the IPCC and the HadCM3 climate model (ΔT: +1.3, +3.5 and +5.6 °C) and included a post-change stabilisation period of 300 years. The results showed radical disruptions at both tree-lines. With the most conservative climate change scenario, species' distributions simply shifted, but it took several centuries reach a new equilibrium. With the more extreme scenarios, some species disappeared from our study areas (e.g. Pinus cembra in the Alps) or dwindled to very low numbers, as they ran out of land into which they could migrate. The most striking result was the lag in the response of most species, independently from the climate change scenario or tree-line type considered. Finally, a statistical model of the effect of reindeer (Rangifer tarandus) browsing on the growth of Pinus sylvestris was developed, as a first step towards implementing human impacts at the boreal tree-line. The expected effect was an indirect one, as reindeer deplete the ground lichen cover, thought to protect the trees against adverse climate conditions. The model showed a small but significant effect of browsing, but as the link with the underlying climate variables was unclear and the model was not spatial, it was not usable as such. Developing the TreeMig-LAb model allowed to: a) establish a method for deriving species' parameters for the growth equation from tree-rings, b) highlight the importance of regeneration in determining tree-line position and species' distributions and c) improve the integration of social sciences into landscape modelling. Applying the model at the Alpine and northern European tree-lines under different climate change scenarios showed that with most forecasted levels of temperature increase, tree-lines would suffer major disruptions, with shifts in distributions and potential extinction of some tree-line species. However, these responses showed strong lags, so these effects would not become apparent before decades and could take centuries to stabilise. Résumé Les écotones son sensibles au changement en raison du nombre élevé d'espèces qui y vivent à la limite de leur tolérance environnementale. Ceci s'applique également aux limites des arbres définies par les gradients de température altitudinaux et latitudinaux. Dans le contexte actuel de changement climatique, on s'attend à ce qu'elles subissent des modifications de leur position, de la biomasse des arbres et éventuellement des essences qui les composent. Les limites altitudinales et latitudinales diffèrent essentiellement au niveau de la pente des gradients de température qui les sous-tendent les distance sont plus grandes pour les limites latitudinales, ce qui pourrait avoir un impact sur la capacité des espèces à migrer en réponse au changement climatique. En sus de la température, la limite des arbres est aussi influencée à un niveau plus local par les pressions dues aux activités humaines. Celles-ci sont aussi en mutation suite aux changements dans nos sociétés et peuvent interagir avec les effets du changement climatique. Les modèles de dynamique forestière sont souvent utilisés pour simuler les effets du changement climatique, car ils sont basés sur la modélisation de processus. Le modèle spatialement explicite TreeMig a été utilisé comme base pour développer un modèle spécialement adapté pour la limite des arbres en Europe du Nord et dans les Alpes. Pour cette dernière, un module servant à simuler des changements d'utilisation du sol a également été ajouté. Tout d'abord, les paramètres de la courbe de réponse à la température pour les espèces inclues dans le modèle ont été calibrées au moyen de données dendrochronologiques pour diverses espèces et divers sites des deux écotones. Ceci a permis d'améliorer la courbe de croissance du modèle, mais a également permis de conclure que la régénération est probablement plus déterminante que la croissance en ce qui concerne la position de la limite des arbres et la distribution des espèces. La seconde étape consistait à implémenter le module d'abandon du terrain agricole dans les Alpes, basé sur un modèle statistique spatial existant. La sensibilité des variables les plus importantes du modèle a été testée et la performance de ce dernier comparée à d'autres approches de modélisation. La probabilité qu'un terrain soit abandonné était fortement influencée par la distance à la forêt la plus proche et par la pente, qui sont tous deux des substituts pour les coûts liés à la mise en culture. Lors de l'application en situation réelle, le nouveau modèle, baptisé TreeMig-LAb, a donné les résultats les plus réalistes. Ceux-ci étaient comparables aux conséquences déjà observées de l'abandon de terrains agricoles, telles que l'expansion des forêts existantes et la fermeture des clairières. Ce nouveau modèle a ensuite été mis en application dans deux zones d'étude, l'une dans les Alpes suisses et l'autre en Laponie finlandaise, avec divers scénarios de changement climatique. Ces derniers étaient basés sur les prévisions de changement de température pour le siècle prochain établies par l'IPCC et le modèle climatique HadCM3 (ΔT: +1.3, +3.5 et +5.6 °C) et comprenaient une période de stabilisation post-changement climatique de 300 ans. Les résultats ont montré des perturbations majeures dans les deux types de limites de arbres. Avec le scénario de changement climatique le moins extrême, les distributions respectives des espèces ont subi un simple glissement, mais il a fallu plusieurs siècles pour qu'elles atteignent un nouvel équilibre. Avec les autres scénarios, certaines espèces ont disparu de la zone d'étude (p. ex. Pinus cembra dans les Alpes) ou ont vu leur population diminuer parce qu'il n'y avait plus assez de terrains disponibles dans lesquels elles puissent migrer. Le résultat le plus frappant a été le temps de latence dans la réponse de la plupart des espèces, indépendamment du scénario de changement climatique utilisé ou du type de limite des arbres. Finalement, un modèle statistique de l'effet de l'abroutissement par les rennes (Rangifer tarandus) sur la croissance de Pinus sylvestris a été développé, comme première étape en vue de l'implémentation des impacts humains sur la limite boréale des arbres. L'effet attendu était indirect, puisque les rennes réduisent la couverture de lichen sur le sol, dont on attend un effet protecteur contre les rigueurs climatiques. Le modèle a mis en évidence un effet modeste mais significatif, mais étant donné que le lien avec les variables climatiques sous jacentes était peu clair et que le modèle n'était pas appliqué dans l'espace, il n'était pas utilisable tel quel. Le développement du modèle TreeMig-LAb a permis : a) d'établir une méthode pour déduire les paramètres spécifiques de l'équation de croissance ä partir de données dendrochronologiques, b) de mettre en évidence l'importance de la régénération dans la position de la limite des arbres et la distribution des espèces et c) d'améliorer l'intégration des sciences sociales dans les modèles de paysage. L'application du modèle aux limites alpines et nord-européennes des arbres sous différents scénarios de changement climatique a montré qu'avec la plupart des niveaux d'augmentation de température prévus, la limite des arbres subirait des perturbations majeures, avec des glissements d'aires de répartition et l'extinction potentielle de certaines espèces. Cependant, ces réponses ont montré des temps de latence importants, si bien que ces effets ne seraient pas visibles avant des décennies et pourraient mettre plusieurs siècles à se stabiliser.
Resumo:
The aquatic environment is exposed continuously and increasingly to chemical substances such as pharmaceuticals. These medical compounds are released into the environment after having being consumed and body-excreted by patients. Pharmaceutical residues are synthetic molecules that are not always removed by traditional sewage treatment processes and thus escape degradation. Among pharmaceuticals that escape sewage treatment plants (STPs), the anticancer drugs were measured in STP effluents and natural waters. In the aquatic environment, their long-term effects at low concentrations are sparsely known on non-target species. Tamoxifen is an anticancer drug that is widely prescribed worldwide for the prevention and treatment of hormone receptor-positive breast cancers. Two of its metabolites, i.e., endoxifen and 4-hydroxy- tamoxifen (4OHTam), have high pharmacological potency in vivo and such as tamoxifen, they are excreted via faeces by patients. Tamoxifen was measured in STP effluents and natural waters but, to the best of our knowledge, its metabolites concentrations in waters have never been reported. Imatinib is another and recent anticancer compound that targets specific tumour cells. This pharmaceutical is also body excreted and because of its increasing use in cancer treatment, imatinib may reach the natural water. The effects of tamoxifen and imatinib are unknown upon more than one generation of aquatic species. And the effects of 4OHTam, endoxifen have never been studied in ecotoxicology so far. The aims of this thesis were threefold. First, the sensitivity of D. pulex exposed to tamoxifen, 4OHTam, endoxifen or imatinib was assessed using ecotoxicological experiments. Ecotoxicology is the science that considers the toxic effects of natural or synthetic substances, such as pharmaceuticals, on organisms, populations, community and ecosystem. Acute and multigenerational (2-4 generations) tests were performed on daphnids considering several studied endpoints, such as immobilisation, size, reproduction, viability and intrinsic rate of natural increase. Additional prospective assays were designed to evaluate whether 1) low concentrations of tamoxifen and 4OHTam were able to induce toxic effects when used in combination, and 2) daphnids were able to recover when offspring were withdrawn from solutions carrying the pharmaceutical. Second, the stability of tamoxifen, 4OHTam and endoxifen in incubation medium was evaluated in solution exempted from daphnids. Because the nominal concentrations of tamoxifen, 4OHTam and endoxifen did not correspond to the measured, we provide a predictive method to estimate the concentrations of these chemicals during long-term ecotoxicological tests. Finally, changes in protein expressions were analysed in D. pulex exposed 2 or 7 seven days to tamoxifen using ecotoxicoproteomic experiments with a shot-gun approach inducing a peptide fractionation step. Our results show that tamoxifen, 4OHTam and endoxifen induced adverse effects in D. pulex at environmentally relevant concentrations. At very low concentrations, these molecules displayed unusual and teratogenic effects because morphological abnormalities were observed in offspring, such as thick and short antennas, curved spines, premature neonates and aborted eggs. Tamoxifen was the most toxic compound among the test chemicals, followed by 4OHTam, endoxifen and imatinib. Tamoxifen no-observed effect concentrations (NOECs) that were calculated for size, reproduction and intrinsic rate were below or in the range of the concentrations measured in natural waters, i.e., between 0.12 µg/L and 0.67 µg/L. For instance, the tamoxifen NOECs that were calculated for reproduction were between 0.67 and 0.72 µg/L, whereas the NOEC was < 0.15 µg/L when based on morphological abnormalities. The NOECs of 4OHTam were higher but still in the same order of magnitude as tamoxifen environmental concentrations, with a value of 1.48 µg/L. Endoxifen NOEC for the intrinsic rate of natural increase (r) and the reproduction were 0.4 and 4.3 µg/L, respectively. Daphnids that were withdrawn from tamoxifen and 4OHTam were not able to recover. Also, the reproduction of D. pulex was reduced when the treated animals were exposed to the combination of tamoxifen and 4OHTam while no effects were observed when these chemicals were tested individually at the same concentration. Among the anticancer drugs that were tested during this thesis, imatinib was the less toxic molecule towards D. pulex. No effects on size and reproduction were observed within two generations, except for the first whose reproduction decreased at the highest test concentration, i.e., 626 µg/L. Our results also underline the need to use measured or predicted concentrations instead of the nominal during aquatic experiments, particularly when lipophilic molecules are tested. Indeed, notable differences between nominal (i.e., theoretical) and measured concentrations were found with tamoxifen, 4OHTam and endoxifen at all test concentrations. A cost and time sustainable method was proposed to predict the test exposure levels of these chemicals during long-term experiments. This predictive method was efficient particularly for low concentrations, which corresponded to the test concentrations in multigenerational tests. In the ecotoxicoproteomic experiments a total of 3940 proteins were identified and quantified in D. pulex exposed to tamoxifen. These results are currently the largest dataset from D. pulex that is published and the results of proteomic analyses are available for the scientific community. Among these 3940 proteins, 189 were significantly different from controls. After protein annotation, we assumed that treated daphnids with tamoxifen had shifted cost-energy functions, such as reproduction, to maintain their basic metabolism necessary to survive. This metabolic cost hypothesis was supported by the presence of proteins involved in oxidative stress. Biomarkers for early detection of tamoxifen harmful effects on D. pulex were not discovered but the proteins of the vitellogenin-2 family (E9H8K5) and the ryanodine receptor (E9FTU9) are promising potential biomarkers because their expression was already modified after 2 days of treatment. In this thesis, the effects of tamoxifen, 4OHTam and endoxifen on daphnids raise questions about the potential impact of tamoxifen and 4OHTam in other aquatic ecosystems, and therefore, about metabolites in ecotoxicology. Because the NOECs were environmentally relevant, these results suggest that tamoxifen and 4OHTam may be interesting pharmaceuticals to consider in risk assessment. Our findings also emphasize the importance of performing long-term experiments and of considering multi-endpoints instead of the standard reproductive endpoint. Finally, we open the discussion about the importance to measure test exposures or not, during ecotoxicological studies. -- Les milieux aquatiques sont exposés continuellement à un nombre croissant de substances chimiques, notamment les médicaments issus de la médecine vétérinaire et humaine. Chez les patients, les substances administrées sont utilisées par le corps avant d'être éliminées par l'intermédiaire des excrétas dans le système d'eaux usées de la ville. Ces eaux rejoignent ensuite une station de traitement afin d'y éliminer les déchets. Dans le cas des molécules chimiques, il arrive que les processus de traitement d'eaux usées ne soient pas suffisamment efficaces et que ces molécules ne soient pas dégradées. Elles sont alors libérées dans le milieu aquatique avec les effluents de la station d'épuration. Une fois dans l'environnement, ces résidus de médicaments sont susceptibles d'induire des effets sur la faune et la flore aquatique, dont les conséquences à long terme et à faibles concentrations sont peu connues. Les anticancéreux sont une famille de médicaments qui peuvent échapper aux traitements des stations d'épuration et qui sont retrouvées dans le milieu aquatique naturel. Parmi ces substances, le tamoxifen est une molécule utilisée dans le monde entier pour prévenir et traiter les cancers hormonaux dépendant du sein, notamment. Une fois ingéré, le tamoxifen est transformé par le foie en métabolites dont deux d'entre eux, le 4-hydroxy-tamoxifen (4OHTam) et l'endoxifen, possèdent un affinité pour les récepteurs aux estrogènes et une efficacité sur les cellules tumorales supérieure au tamoxifen lui- même. Tout comme la molécule mère, ces métabolites sont principalement éliminés par l'intermédiaire des fèces. Le tamoxifen a déjà été mesuré dans les effluents de stations d'épuration et dans les eaux naturelles, mais aucune valeur n'a été reportée pour ses métabolites jusqu'à présent. Un autre anticancéreux, également éliminé par voie biliaire et susceptible d'atteindre l'environnement, est l'imatinib. Cette récente molécule a révolutionné le traitement et la survie des patients souffrant de leucémie myéloïde chronique et de tumeur stromales gastrointestinales. Les effets du tamoxifen et de l'imatinib sur plusieurs générations d'organismes aquatiques, tels que les microcrustacés Daphnia, sont inconnus et le 4OHTam et l'endoxifen n'ont même jamais été testés en écotoxicologie. Cette thèse s'est articulée autour de trois objectifs principaux. Premièrement, la sensibilité des D. pulex exposés au tamoxifen, 4OHTam, endoxifen et imatinib a été évaluée par l'intermédiaire de tests aigus et de tests sur deux à quatre générations. La mobilité, la taille, la reproduction, la viabilité et la croissance potentielle de la population ont été relevées au cours de ces expériences. Des tests supplémentaires, à but prospectifs, ont également été réalisés afin d'évaluer 1) la capacité de récupération des daphnies, lorsque leurs descendants ont été placés dans un milieu exempté de tamoxifen ou de 4OHTam, 2) les effets chez les daphnies exposées à une solution contenant de faibles concentration de tamoxifen et de 4OHTam mélangés. Le deuxième objectif a été d'évaluer la stabilité du tamoxifen, 4OHTam et endoxifen dilué dans le milieu des daphnies. Après analyses, les concentrations mesurées ne correspondaient pas aux concentrations nominales (c.-à-d., théoriques) et il a été nécessaire de développer une méthode efficace de prédiction des niveaux d'exposition lors de tests de longue durée réalisés avec ces trois molécules. Finalement, des changements dans l'expression des protéines chez des daphnies exposées au tamoxifen ont été investigués par l'intermédiaire d'expériences écotoxicoprotéomiques avec une approche dite de shot-gun avec une étape de fractionnement des protéines. Les résultats obtenus dans cette thèse montrent que le tamoxifen, le 4OHTam et l'endoxifen induisent des effets indésirables chez les daphnies à des niveaux d'exposition proches ou identiques aux concentrations du tamoxifen mesurées dans l'environnement, c'est-à-dire 0.12 et 0.67 µg/L de tamoxifen. Ces molécules ont induit des effets inhabituels tels que la production de : nouveau-nés anormaux, avec des antennes et des queues déformées, des prématurés et des oeufs avortés. Le tamoxifen fut la molécule la plus toxique pour les D. pulex suivie du 4OHTam, de l'endoxifen et enfin de l'imatinib. Lors des expériences sur plusieurs générations, les concentrations n'ayant statistiquement pas d'effet (c.à.d. NOEC en anglais) sur la taille, la reproduction et la croissance intrinsèque de la population étaient du même ordre de grandeur que les concentrations environnementales du tamoxifen. Par exemple, les NOECs du tamoxifen calculées pour la reproduction étaient de 0.67 et 0.72 µg/L, tandis que celle calculée sur la base des anomalies chez les nouveau-nés était < 0.15 µg/L. Les NOECs du 4OHTam se situaient entre 0.16 et 1.48 µg/L et celles de l'endoxifen pour la croissance intrinsèque de la population, ainsi que pour la reproduction, étaient de 0.4 et 4.3 µg/L, respectivement. Dans l'expérience basée sur la récupération des daphnies, la taille et la reproduction ont diminué bien que la descendance fût placée dans un milieu sans substances chimiques. Les daphnies exposées au mélange de tamoxifen et de 4OHTam ont produit moins de nouveau-nés que les contrôles, alors que ces concentrations n'ont pas induit d'effets lorsque testées individuellement. Finalement, l'imatinib n'a pas montré d'effets sur les deux générations testées. Seule la première génération exposée à la plus haute concentration (626 µg/L) a montré une diminution de la reproduction. Les résultats obtenus lors de l'évaluation de la stabilité du tamoxifen, 4OHTam et endoxifen dans le milieu des daphnies ont souligné l'importance d'utiliser des concentrations mesurées ou prédites en écotoxicologie. En effet, des différences notables entre concentrations nominales et mesurées ont été observées à toutes les concentrations et l'hypothèse d'un phénomène d'adsorption sur le verre des récipients a été posée. De ce fait, il a été nécessaire d'élaborer une méthode prédictive efficace et acceptable, en terme de temps et de coûts. Une régression polynomiale basée sur des concentrations mesurées et nominales a permis de prédire avec efficacité les faibles niveaux d'exposition utilisés lors d'expériences écotoxicologiques à long terme, sur plusieurs générations. Suite aux expériences d'écotoxicoprotéomiques, un total de 3940 protéines ont été identifiées et quantifiées chez des daphnies exposées au tamoxifen. Ce nombre est actuellement la plus large série de données publiées et mises à disposition pour la communauté scientifique. Parmi ces protéines, 189 sont significatives et possiblement reliées à des processus de reproduction et de stress. Sur cette base, nous avons émis l'hypothèse que les individus subissant un stress, lié à l'exposition au tamoxifen, ont utilisé leur énergie de base pour favoriser leur survie plutôt que la reproduction. Enfin, la détermination de bio-marqueurs exprimant des dommages précoces des daphnies exposées au tamoxifen n'a pas abouti en tant que telle, mais des protéines prometteuses, telle que la famille de viellogenin-2 (E9H8K5) et le récepteur à la ryanodine (E9FTU9), ont été exprimées après deux jours d'exposition déjà. Ces protéines pourraient faire l'objet d'investigations écotoxicoprotéomiques futures. Les résultats de cette thèse posent certaines questions quant au risque du tamoxifen, du 4OHTam et de l'endoxifen sur la faune et la flore aquatique et plus particulièrement sur les anticancéreux présents dans l'environnement. Les effets toxiques de ces molécules ont été observés à des concentrations environnementales et sur plusieurs générations. La question de considérer les métabolites, et ainsi les pro-médicaments, en écotoxicologie est soulevée, notamment parce que ces molécules peuvent être plus actives et efficaces que la molécule mère. Les expériences chroniques, sur plusieurs générations sont également à favoriser car elles offrent un meilleur reflet de la réalité environnementale que des essais aigus ou d'une génération. L'utilisation de la protéomique permet d'agrandir les connaissances sur les effets des médicaments à un niveau inférieur de l'organisation biologique et ainsi, de mieux comprendre de potentiels mécanismes d'action ou de déterminer de potentiels biomarqueurs. Finalement, il semble important de discuter de l'opportunité de mesurer les concentrations qui sont testées en écotoxicologie afin de ne pas sous-estimer le risque pour la faune et la flore aquatique.
Resumo:
In mammals, the presence of excitable cells in muscles, heart and nervous system is crucial and allows fast conduction of numerous biological information over long distances through the generation of action potentials (AP). Voltage-gated sodium channels (Navs) are key players in the generation and propagation of AP as they are responsible for the rising phase of the AP. Navs are heteromeric proteins composed of a large pore-forming a-subunit (Nav) and smaller ß-auxiliary subunits. There are ten genes encoding for Navl.l to Nav1.9 and NaX channels, each possessing its own specific biophysical properties. The excitable cells express differential combinations of Navs isoforms, generating a distinct electrophysiological signature. Noteworthy, only when anchored at the membrane are Navs functional and are participating in sodium conductance. In addition to the intrinsic properties of Navs, numerous regulatory proteins influence the sodium current. Some proteins will enhance stabilization of membrane Navs while others will favour internalization. Maintaining equilibrium between the two is of crucial importance for controlling cellular excitability. The E3 ubiquitin ligase Nedd4-2 is a well-characterized enzyme that negatively regulates the turnover of many membrane proteins including Navs. On the other hand, ß-subunits are known since long to stabilize Navs membrane anchoring. Peripheral neuropathic pain is a disabling condition resulting from nerve injury. It is characterized by the dysregulation of Navs expressed in dorsal root ganglion (DRG) sensory neurons as highlighted in different animal models of neuropathic pain. Among Navs, Nav1.7 and Nav1.8 are abundantly and specifically expressed in DRG sensory neurons and have been recurrently incriminated in nociception and neuropathic pain development. Using the spared nerve injury (SNI) experimental model of neuropathic pain in mice, I observed a specific reduction of Nedd4-2 in DRG sensory neurons. This decrease subsequently led to an upregulation of Nav1.7 and Nav1.8 protein and current, in the axon and the DRG neurons, respectively, and was sufficient to generate neuropathic pain-associated hyperexcitability. Knocking out Nedd4-2 specifically in nociceptive neurons led to the same increase of Nav1.7 and Nav1.8 concomitantly with an increased thermal sensitivity in mice. Conversely, rescuing Nedd4-2 downregulation using viral vector transfer attenuated neuropathic pain mechanical hypersensitivity. This study demonstrates the significant role of Nedd4-2 in regulating cellular excitability in vivo and its involvement in neuropathic pain development. The role of ß-subunits in neuropathic pain was already demonstrated in our research group. Because of their stabilization role, the increase of ßl, ß2 and ß3 subunits in DRGs after SNI led to increased Navs anchored at the membrane. Here, I report a novel mechanism of regulation of a-subunits by ß- subunits in vitro; ßl and ß3-subunits modulate the glycosylation pattern of Nav1.7, which might account for stabilization of its membrane expression. This opens new perspectives for investigation Navs state of glycosylation in ß-subunits dependent diseases, such as in neuropathic pain. - Chez les mammifères, la présence de cellules excitables dans les muscles, le coeur et le système nerveux est cruciale; elle permet la conduction rapide de nombreuses informations sur de longues distances grâce à la génération de potentiels d'action (PA). Les canaux sodiques voltage-dépendants (Navs) sont des participants importants dans la génération et la propagation des PA car ils sont responsables de la phase initiale de dépolarisation du PA. Les Navs sont des protéines hétéromériques composées d'une grande sous-unité a (formant le pore du canal) et de petites sous-unités ß accompagnatrices. Il existe dix gènes qui codent pour les canaux sodiques, du Nav 1.1 au Nav 1.9 ainsi que NaX, chacun possédant des propriétés biophysiques spécifiques. Les cellules excitables expriment différentes combinaisons des différents isoformes de Navs, qui engendrent une signature électrophysiologique distincte. Les Navs ne sont fonctionnels et ne participent à la conductibilité du Na+, que s'ils sont ancrés à la membrane plasmique. En plus des propriétés intrinsèques des Navs, de nombreuses protéines régulatrices influencent également le courant sodique. Certaines protéines vont favoriser l'ancrage et la stabilisation des Navs exprimés à la membrane, alors que d'autres vont plutôt favoriser leur internalisation. Maintenir l'équilibre des deux processus est crucial pour contrôler l'excitabilité cellulaire. Dans ce contexte, Nedd4-2, de la famille des E3 ubiquitin ligase, est une enzyme bien caractérisée qui régule l'internalisation de nombreuses protéines, notamment celle des Navs. Inversement, les sous-unités ß sont connues depuis longtemps pour stabiliser l'ancrage des Navs à la membrane. La douleur neuropathique périphérique est une condition débilitante résultant d'une atteinte à un nerf. Elle est caractérisée par la dérégulation des Navs exprimés dans les neurones sensoriels du ganglion spinal (DRG). Ceci a été démontré à de multiples occasions dans divers modèles animaux de douleur neuropathique. Parmi les Navs, Nav1.7 et Nav1.8 sont abondamment et spécifiquement exprimés dans les neurones sensoriels des DRG et ont été impliqués de façon récurrente dans le développement de la douleur neuropathique. En utilisant le modèle animal de douleur neuropathique d'épargne du nerf sural (spared nerve injury, SNI) chez la souris, j'ai observé une réduction spécifique des Nedd4-2 dans les neurones sensoriels du DRG. Cette diminution avait pour conséquence l'augmentation de l'expression des protéines et des courants de Nav 1.7 et Nav 1.8, respectivement dans l'axone et les neurones du DRG, et était donc suffisante pour créer l'hyperexcitabilité associée à la douleur neuropathique. L'invalidation pour le gène codant pour Nedd4-2 dans une lignée de souris génétiquement modifiées a conduit à de similaires augmentations de Nav1.7 et Nav1.8, parallèlement à une augmentation à la sensibilité thermique. A l'opposé, rétablir une expression normale de Nedd4-2 en utilisant un vecteur viral a eu pour effet de contrecarrer le développement de l'hypersensibilité mécanique lié à ce modèle de douleur neuropathique. Cette étude démontre le rôle important de Nedd4-2 dans la régulation de l'excitabilité cellulaire in vivo et son implication dans le développement des douleurs neuropathiques. Le rôle des sous-unités ß dans les douleurs neuropathiques a déjà été démontré dans notre groupe de recherche. A cause de leur rôle stabilisateur, l'augmentation des sous-unités ßl, ß2 et ß3 dans les DRG après SNI, conduit à une augmentation des Navs ancrés à la membrane. Dans mon travail de thèse, j'ai observé un nouveau mécanisme de régulation des sous-unités a par les sous-unités ß in vitro. Les sous-unités ßl et ß3 régulent l'état de glycosylation du canal Nav1.7, et stabilisent son expression membranaire. Ceci ouvre de nouvelles perspectives dans l'investigation de l'état de glycosylation des Navs dans des maladies impliquant les sous-unités ß, notamment les douleurs neuropathiques.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
Résumé: Les récents progrès techniques de l'imagerie cérébrale non invasives ont permis d'améliorer la compréhension des différents systèmes fonctionnels cérébraux. Les approches multimodales sont devenues indispensables en recherche, afin d'étudier dans sa globalité les différentes caractéristiques de l'activité neuronale qui sont à la base du fonctionnement cérébral. Dans cette étude combinée d'imagerie par résonance magnétique fonctionnelle (IRMf) et d'électroencéphalographie (EEG), nous avons exploité le potentiel de chacune d'elles, soit respectivement la résolution spatiale et temporelle élevée. Les processus cognitifs, de perception et de mouvement nécessitent le recrutement d'ensembles neuronaux. Dans la première partie de cette thèse nous étudions, grâce à la combinaison des techniques IRMf et EEG, la réponse des aires visuelles lors d'une stimulation qui demande le regroupement d'éléments cohérents appartenant aux deux hémi-champs visuels pour en faire une seule image. Nous utilisons une mesure de synchronisation (EEG de cohérence) comme quantification de l'intégration spatiale inter-hémisphérique et la réponse BOLD (Blood Oxygenation Level Dependent) pour évaluer l'activité cérébrale qui en résulte. L'augmentation de la cohérence de l'EEG dans la bande beta-gamma mesurée au niveau des électrodes occipitales et sa corrélation linéaire avec la réponse BOLD dans les aires de VP/V4, reflète et visualise un ensemble neuronal synchronisé qui est vraisemblablement impliqué dans le regroupement spatial visuel. Ces résultats nous ont permis d'étendre la recherche à l'étude de l'impact que le contenu en fréquence des stimuli a sur la synchronisation. Avec la même approche, nous avons donc identifié les réseaux qui montrent une sensibilité différente à l'intégration des caractéristiques globales ou détaillées des images. En particulier, les données montrent que l'implication des réseaux visuels ventral et dorsal est modulée par le contenu en fréquence des stimuli. Dans la deuxième partie nous avons a testé l'hypothèse que l'augmentation de l'activité cérébrale pendant le processus de regroupement inter-hémisphérique dépend de l'activité des axones calleux qui relient les aires visuelles. Comme le Corps Calleux présente une maturation progressive pendant les deux premières décennies, nous avons analysé le développement de la fonction d'intégration spatiale chez des enfants âgés de 7 à 13 ans et le rôle de la myelinisation des fibres calleuses dans la maturation de l'activité visuelle. Nous avons combiné l'IRMf et la technique de MTI (Magnetization Transfer Imaging) afin de suivre les signes de maturation cérébrale respectivement sous l'aspect fonctionnel et morphologique (myelinisation). Chez lés enfants, les activations associées au processus d'intégration entre les hémi-champs visuels sont, comme chez l'adulte, localisées dans le réseau ventral mais se limitent à une zone plus restreinte. La forte corrélation que le signal BOLD montre avec la myelinisation des fibres du splenium est le signe de la dépendance entre la maturation des fonctions visuelles de haut niveau et celle des connections cortico-corticales. Abstract: Recent advances in non-invasive brain imaging allow the visualization of the different aspects of complex brain dynamics. The approaches based on a combination of imaging techniques facilitate the investigation and the link of multiple aspects of information processing. They are getting a leading tool for understanding the neural basis of various brain functions. Perception, motion, and cognition involve the formation of cooperative neuronal assemblies distributed over the cerebral cortex. In this research, we explore the characteristics of interhemispheric assemblies in the visual brain by taking advantage of the complementary characteristics provided by EEG (electroencephalography) and fMRI (Functional Magnetic Resonance Imaging) techniques. These are the high temporal resolution for EEG and high spatial resolution for fMRI. In the first part of this thesis we investigate the response of the visual areas to the interhemispheric perceptual grouping task. We use EEG coherence as a measure of synchronization and BOLD (Blood Oxygenar tion Level Dependent) response as a measure of the related brain activation. The increase of the interhemispheric EEG coherence restricted to the occipital electrodes and to the EEG beta band and its linear relation to the BOLD responses in VP/V4 area points to a trans-hemispheric synchronous neuronal assembly involved in early perceptual grouping. This result encouraged us to explore the formation of synchronous trans-hemispheric networks induced by the stimuli of various spatial frequencies with this multimodal approach. We have found the involvement of ventral and medio-dorsal visual networks modulated by the spatial frequency content of the stimulus. Thus, based on the combination of EEG coherence and fMRI BOLD data, we have identified visual networks with different sensitivity to integrating low vs. high spatial frequencies. In the second part of this work we test the hypothesis that the increase of brain activity during perceptual grouping depends on the activity of callosal axons interconnecting the visual areas that are involved. To this end, in children of 7-13 years, we investigated functional (functional activation with fMRI) and morphological (myelination of the corpus callosum with Magnetization Transfer Imaging (MTI)) aspects of spatial integration. In children, the activation associated with the spatial integration across visual fields was localized in visual ventral stream and limited to a part of the area activated in adults. The strong correlation between individual BOLD responses in .this area and the myelination of the splenial system of fibers points to myelination as a significant factor in the development of the spatial integration ability.
Resumo:
Introduction: Le curage ganglionnaire axillaire (CA) complémentaire en cas de micrométastase dans les ganglions sentinelles (GS) des cancers du sein (CS) n'est plus systématique depuis 2011 (Goldhirsch et al. Ann Oncol 2011;22:1736-47). En parallèle, plus de CS sont diagnostiqués à un stade précoce (N0) ; et l'échographie et la cytoponction/biopsie de ganglions axillaires en détectant des métastases en préopératoire permettent une meilleure sélection des patientes pour la procédure du GS. Ces évolutions amènent à réévaluer le rôle de l'examen extemporané des GS (EE). Objectif: Notre but était d'observer l'évolution de la pratique du CA en lien avec les résultats des EE (par cytologie +/- coupe congelée) entre 2011 et 2012 dans notre Centre. Méthode: Pour les 79 patientes dont le CS invasif a été classé pN > 0 en 2011 et 2012 (38 et 41 cas, 25 et 35% des cancers invasifs), nous avons comparé 1/ les taux de CA réalisés : au total; d'emblée (sans GS) ; après résultat positif de l'EE en 1 temps ; et en 2 temps opératoires ; et 2/ les taux d'abstention de CA en cas de GS positif. Résultats: En 2012 par rapport à 2011, bien que les différences ne soient pas significatives, on observe une tendance à la baisse des taux de CA : au total (18,8 vs 26,8%, p=0,24) ; d'emblée (12,8 vs 16,7%, p=0,49) ; après GS (7,3 vs 12,1%, p=0,27) ; en 1 temps opératoire (6,3 vs 9,7%, p=0,46) ; en 2 temps 53 (1,0 vs 2,4%, p=0,63). Les taux d'abstention de CA en cas de GS positif (pN > 0) étaient de 63% en 2012 (12/19, dont 13 pN1mi) vs 0% en 2011(p=0.0001). Discussion : Les effets conjoints du diagnostic précoce des CS, des performances de l'imagerie du creux axillaire et de l'abstention de CA en cas de micrométastases résultent en une tendance à la réduction du nombre de CA réalisés après procédure du GS. Dans cette série, le défaut de sensibilité de l'EE (par une méthode morphologique) pour la détection des micrométastases a permis dans 12/13 cas en 2012 de décider d'une abstention de CA lors de la réunion de concertation pluridisciplinaire. Conclusion: Si les tendances observées sur ces deux années se confirment, le bénéfice de l'EE des GS devra à terme être ré-évalué.
Resumo:
Abstract - Cannabis: what are the risks ? Cannabinoids from cannabis have a dual use and display often opposite pharmacological properties depending on the circumstances of use and the administered dose. Cannabinoids constitute mainly a recreative or addictive substance, but also a therapeutic drug. They can be either neurotoxic or neuroprotector, carcinogenic or an anti-cancer drug, hyperemetic or antiemetic, pro-inflammatory or anti-inflammatory... Improvement in in-door cultivation techniques and selection of high yield strains have resulted in a steadily increase of THC content. Cannabis is the most frequently prohibited drug used in Switzerland and Western countries. About half of teenagers have already experimented cannabis consumption. About 10% of cannabis users smoke it daily and can be considered as cannabis-dependant. About one third of these cannabis smokers are chronically intoxicated. THC, the main psychoactive drug interacts with the endocannnabinoid system which is made of cellular receptors, endogenous ligands and a complex intra-cellular biosynthetic, degradation and intra-cellular messengers machinery. The endocannabinoid system plays a major role in the fine tuning of the nervous system. It is thought to be important in memory, motor learning, and synaptic plasticity. At psychoactive dose, THC impairs psychomotor and neurocognitive performances. Learning and memory abilities are diminished. The risk to be responsible of a traffic car accident is slightly increased after administration of cannabis alone and strongly increased after combined use of alcohol and cannabis. With the exception of young children, cannabis intake does not lead to potentially fatal intoxication. However, cannabis exposure can act as trigger for cardiovascular accidents in rare vulnerable people. Young or vulnerable people are more at risk to develop a psychosis at adulthood and/or to become cannabis-dependant. Epidemiological studies have shown that the risk to develop a schizophrenia at adulthood is increased for cannabis smokers, especially for those who are early consumers. Likewise for the risk of depression and suicide attempt. Respiratory disease can be worsen after cannabis smoking. Pregnant and breast-feeding mothers should not take cannabis because THC gets into placenta and concentrates in breast milk. The most sensitive time-period to adverse side-effects of cannabis starts from foetus and extends to adolescence. The reason could be that the endocannabinoid system, the main target of THC, plays a major role in the setup of neuronal networks in the immature brain. The concomitant use of other psychoactive drugs such as alcohol, benzodiazepines or cocaine should be avoided because of possible mutual interactions. Furthermore, it has been demonstrated that a cross-sensitisation exists between most addictive drugs at the level of the brain reward system. Chronic use of cannabis leads to tolerance and withdrawals symptoms in case of cannabis intake interruption. Apart from the aforementioned unwanted side effects, cannabis displays useful and original medicinal properties which are currently under scientific evaluation. At the moment the benefit/risk ratio is not yet well assessed. Several minor phytocannabinoids or synthetic cannabinoids devoid of psychoactive properties could find their way in the modern pharmacopoeia (e.g. ajulemic acid). For therapeutic purposes, special cannabis varieties with unique cannabinoids composition (e.g. a high cannabidiol content) are preferred over those which are currently used for recreative smoking. The administration mode also differs in such a way that inhalation of carcinogenic pyrolytic compounds resulting from cannabis smoking is avoided. This can be achieved by inhaling cannabis vapors at low temperature with a vaporizer device. Résumé Les cannabinoïdes contenus dans la plante de cannabis ont un double usage et possèdent des propriétés opposées suivant les circonstances et les doses employées. Les cannabinoïdes, essentiellement drogue récréative ou d'abus pourraient, pour certains d'entre eux, devenir des médicaments. Selon les conditions d'utilisation, ils peuvent être neurotoxiques ou neuroprotecteurs, carcinogènes ou anticancéreux, hyper-émétiques ou antiémétiques, pro-inflammatoires ou anti-inflammatoires... Les techniques de culture sous serre indoor ainsi que la sélection de variétés de cannabis à fort potentiel de production ont conduit à un accroissement notable des taux de THC. Le cannabis est la drogue illégale la plus fréquemment consommée en Suisse et ailleurs dans le monde occidental. Environ la moitié des jeunes ont déjà expérimenté le cannabis. Environ 10 % des consommateurs le fument quotidiennement et en sont devenus dépendants. Un tiers de ces usagers peut être considéré comme chroniquement intoxiqué. Le THC, la principale substance psychoactive du cannabis, interagit avec le "système endocannabinoïde". Ce système est composé de récepteurs cellulaires, de ligands endogènes et d'un dispositif complexe de synthèse, de dégradation, de régulation et de messagers intra-cellulaires. Le système endocannabinoïde joue un rôle clé dans le réglage fin du système nerveux. Les endocannabinoïdes régulent la mémorisation, l'apprentissage moteur et la plasticité des liaisons nerveuses. À dose psychoactive, le THC réduit les performances psychomotrices et neurocognitives. Les facultés d'apprentissage et de mémorisation sont diminuées. Le risque d'être responsable d'un accident de circulation est augmenté après prise de cannabis, et ceci d'autant plus que de l'alcool aura été consommé parallèlement. À l'exception des jeunes enfants, la consommation de cannabis n'entraîne pas de risque potentiel d'intoxication mortelle. Toutefois, le cannabis pourrait agir comme facteur déclenchant d'accident cardiovasculaire chez de rares individus prédisposés. Les individus jeunes, et/ou vulnérables ont un risque significativement plus élevé de développer une psychose à l'âge adulte ou de devenir dépendant au cannabis. Des études épidémiologiques ont montré que le risque de développer une schizophrénie à l'âge adulte était augmenté pour les consommateurs de cannabis et ceci d'autant plus que l'âge de début de consommation était précoce. Il en va de même pour le risque de dépression. Les troubles respiratoires pourraient être exacerbés par la prise de cannabis. Les femmes enceintes et celles qui allaitent ne devraient pas consommer de cannabis car le THC traverse la barrière hémato-placentaire, en outre, il se concentre dans le lait maternel. La période de la vie la plus sensible aux effets néfastes du cannabis correspond à celle allant du foetus à l'adolescent. Le système endocannabinoïde sur lequel agit le THC serait en effet un acteur majeur orchestrant le développement des réseaux neuronaux dans le cerveau immature. La prise concomitante d'autres psychotropes comme l'alcool, les benzodiazépines ou la cocaïne conduit à des renforcements mutuels de leurs effets délétères. De plus, il a été montré l'existence d'une sensibilité croisée pour la majorité des psychotropes qui agissent sur le système de la récompense, le cannabis y compris, ce qui augmente ainsi le risque de pharmacodépendance. La prise régulière de doses élevées de cannabis entraîne l'apparition d'une tolérance et de symptômes de sevrage discrets à l'arrêt de la consommation. À part les effets négatifs mentionnés auparavant, le cannabis possède des propriétés médicales originales qui sont l'objet d'études attentives. Plusieurs cannabinoïdes mineurs naturels ou synthétiques, comme l'acide ajulémique, pourraient trouver un jour une place dans la pharmacopée. En usage thérapeutique, des variétés particulières de cannabis sont préférées, par exemple celles riches en cannabidiol non psychoactif. Le mode d'administration diffère de celui utilisé en mode récréatif. Par exemple, la vaporisation des cannabinoïdes à basse température est préférée à l'inhalation du "joint".
Resumo:
SUMMARY :Non-alcoholic fatty liver disease (NAFLD) is characterized by an elevated intra- hepatocellular lipid (IHCL) concentration (> 5%). The incidence of NAFLD is frequently increased in obese patients, and is considered to be the hepatic component of the metabolic syndrome. The metabolic syndrome, also characterized by visceral obesity, altered glucose homeostasis, insulin resistance, dyslipidemia, and high blood pressure, represents actually a major public health burden. Both dietary factors and low physical activity are involved in the development of the metabolic syndrome. ln animals and healthy humans, high-fat or high-fructose diets lead to the development of several features of the metabolic syndrome including increased intrahepatic lipids and insulin resistance. ln contrast the effects of dietary protein are less well known, but an increase in protein intake has been suggested to exert beneficial effects by promoting weight loss and improving glucose homeostasis in insulin-resistant patients. Increased postprandial thermogenesis and enhanced satiety after protein ingestion may be both involved. The effects of dietary protein on hepatic lipids have been poorly investigated in humans, but preliminary studies in rodents have shown a reduction of hepatic lipids in carbohydrate fed rats and in obese rats. ln this context this work aimed at investigating the metabolic effects of dietary protein intake on hepatic lipid metabolism and glucose homeostasis in humans. The modulation by dietary proteins of exogenous lipid oxidation, net lipid oxidation, hepatic beta-oxidation, triglycerides concentrations, whole-body energy expenditure and glucose tolerance was assessed in the fasting state and in postprandial states. Measurements of IHCL were performed to quantify the amount of triglycerides in the liver. ln an attempt to cover all these metabolic aspects under different point of views, these questions were addressed by three protocols involving various feeding conditions. Study I addressed the effects of a 4-day hypercaloric high-fat high-protein diet on the accumulation of fat in the liver (IHCL) and on insulin sensitivity. Our findings indicated that a high protein intake significantly prevents intrahepatic fat deposition induced by a short- term hypercaloric high-fat diet, adverse effects of which are presumably modulated at the liver level.These encouraging results led us to conduct the second study (Study ll), as we were also interested in a more clinical approach to protein administration and especially if increased protein intakes might be of benefit for obese patients. Therefore the effects of one-month whey protein supplementation on IHCL, insulin sensitivity, lipid metabolism, glucose tolerance and renal function were assessed in obese women. Results showed that whey protein supplementation reduces hepatic steatosis and improves the plasma lipid profile in obese patients, without adverse effects on glucose tolerance or creatinine clearance. However since patients were fed ud-libitum, it remains possible that spontaneous carbohydrate and fat intakes were reduced due to the satiating effects of protein. The third study (Study lll) was designed in an attempt to deepen our comprehension about the mechanisms involved in the modulation of IHCL. We hypothesized that protein improved lipid metabolism and, therefore, we evaluated the effects of a high protein meal on postprandial lipid metabolism and glucose homeostasis after 4-day on a control or a protein diet. Our results did not sustain the hypothesis of an increased postprandial net lipid oxidation, hepatic beta oxidation and exogenous lipid oxidation. Four days on a high-protein diet rather decreased exogenous fat oxidation and enhanced postprandial triglyceride concentrations, by impairing probably chylomicron-TG clearance. Altogether the results of these three studies suggest a beneficial effect of protein intake on the reduction in lHCL, and clearly show that supplementation of proteins do not reduce IHCL by stimulating lipid metabolism, e.g. whole body fat oxidation, hepatic beta oxidation, or exogenous fat oxidation. The question of the effects of high-protein intakes on hepatic lipid metabolism is still open and will need further investigation to be elucidated. The effects of protein on increased postprandial lipemia and lipoproteins kinetics have been little investigated so far and might therefore be an interesting research question, considering the tight relationship between an elevation of plasmatic TG concentrations and the increased incidence of cardiovascular diseases.Résumé :La stéatose hépatique non alcoolique se caractérise par un taux de lipides intra-hépatiques élevé, supérieur à 5%. L'incidence de la stéatose hépatique est fortement augmentée chez les personnes obèses, ce qui mène à la définir comme étant la composante hépatique du syndrome métabolique. Ce syndrome se définit aussi par d'autres critères tels qu'obésité viscérale, altération de l'homéostasie du glucose, résistance à l'insuline, dyslipidémie et pression artérielle élevée. Le syndrome métabolique est actuellement un problème de santé publique majeur.Tant une alimentation trop riche et déséquilibrée, qu'une faible activité physique, semblent être des causes pouvant expliquer le développement de ce syndrome. Chez l'animal et le volontaire sain, des alimentations enrichies en graisses ou en sucres (fructose) favorisent le développement de facteurs associés au syndrome métabolique, notamment en augmentant le taux de lipides intra-hépatiques et en induisant le développement d'une résistance à l'insuline. Par ailleurs, les effets des protéines alimentaires sont nettement moins bien connus, mais il semblerait qu'une augmentation de l'apport en protéines soit bénéfique, favorisant la perte de poids et l'homéostasie du glucose chez des patients insulino-résistants. Une augmentation de la thermogenese postprandiale ainsi que du sentiment de satiété pourraient en être à l'origine.Les effets des protéines sur les lipides intra-hépatiques chez l'homme demeurent inconnus à ce jour, cependant des études préliminaires chez les rongeurs tendent à démontrer une diminution des lipides intra hépatiques chez des rats nourris avec une alimentation riche en sucres ou chez des rats obèses.Dans un tel contexte de recherche, ce travail s'est intéressé à l'étude des effets métaboliques des protéines alimentaires sur le métabolisme lipidique du foie et sur l'homéostasie du glucose. Ce travail propose d'évaluer l'effet des protéines alimentaires sur différentes voies métaboliques impliquant graisses et sucres, en ciblant d'une part les voies de l'oxydation des graisses exogènes, de la beta-oxydation hépatique et de l'oxydation nette des lipides, et d'autre part la dépense énergétique globale et l'évolution des concentrations sanguines des triglycérides, à jeun et en régime postprandial. Des mesures des lipides intra-hépatiques ont aussi été effectuées pour permettre la quantification des graisses déposées dans le foie.Dans le but de couvrir l'ensemble de ces aspects métaboliques sous différents angles de recherche, trois protocoles, impliquant des conditions alimentaires différentes, ont été entrepris pour tenter de répondre à ces questions. La première étude (Etude I) s'est intéressée aux effets d'u.ne suralimentation de 4 jours enrichie en graisses et protéines sur la sensibilité à l'insuline et sur l'accumulation de graisses intra-hépatiques. Les résultats ont démontré que l'apport en protéines prévient l'accumulation de graisses intra-hépatiques induite par une suralimentation riche en graisses de courte durée ainsi que ses effets délétères probablement par le biais de mécanismes agissant au niveau du foie. Ces résultats encourageants nous ont conduits à entreprendre une seconde étude (Etude ll) qui s'intéressait à l'implication clinique et aux bénéfices que pouvait avoir une supplémentation en protéines sur les graisses hépatiques de patients obèses. Ainsi nous avons évalué pendant un mois de supplémentation l'effet de protéines de lactosérum sur le taux de graisses intrahépatiques, la sensibilité à l'insuline, la tolérance au glucose, le métabolisme des graisses et la fonction rénale chez des femmes obèses. Les résultats ont été encourageants; la supplémentation en lactosérum améliore la stéatose hépatique, le profil lipidique des patientes obèses sans pour autant altérer la tolérance au glucose ou la clairance de la créatinine. L'effet satiétogene des protéines pourrait aussi avoir contribué à renforcer ces effets. La troisième étude s'est intéressée aux mécanismes qui sous-tendent les effets bénéfiques des protéines observés dans les 2 études précédentes. Nous avons supposé que les protéines devaient favoriser le métabolisme des graisses. Par conséquent, nous avons cherché a évaluer les effets d'un repas riche en protéines sur la lipémie postprandiale et l'homéostasie glucidique après 4 jours d'alimentation contrôlée soit isocalorique et équilibrée, soit hypercalorique enrichie en protéines. Les résultats obtenus n'ont pas vérifié l'hypothèse initiale ; ni une augmentation de l'oxydation nette des lipides, ni celle d'une augmentation de la béta-oxydation hépatique ou de l'oxydation d'un apport exogène de graisses n'a pu étre observée. A contrario, il semblerait même plutôt que 4 jours d'a]irnentation hyperprotéinée inhibent le métabolisme des graisses et augmente les concentrations sanguines de triglycérides, probablement par le biais d'une clairance de chylornicrons altérée. Globalement, les résultats de ces trois études nous permettent d'attester que les protéines exercent un effet bénéfique en prévenant le dépot de graisses intra-hépatiques et montrent que cet effet ne peut être attribué à une stimulation du métabolisme des lipides via l'augmentation des oxydations des graisses soit totales, hépatiques, ou exogènes. La question demeure en suspens à ce jour et nécessite de diriger la recherche vers d'autres voies d'exploration. Les effets des protéines sur la lipémie postprandiale et sur le cinétique des lipoprotéines n'a que peu été traitée à ce jour. Cette question me paraît néanmoins importante, sachant que des concentrations sanguines élevées de triglycérides sont étroitement corrélées à une incidence augmentée de facteurs de risque cardiovasculaire.
Resumo:
RESUME Les évidences montrant que les changements globaux affectent la biodiversité s'accumulent. Les facteurs les plus influant dans ce processus sont les changements et destructions d'habitat, l'expansion des espèces envahissantes et l'impact des changements climatiques. Une évaluation pertinente de la réponse des espèces face à ces changements est essentielle pour proposer des mesures permettant de réduire le déclin actuel de la biodiversité. La modélisation de la répartition d'espèces basée sur la niche (NBM) est l'un des rares outils permettant cette évaluation. Néanmoins, leur application dans le contexte des changements globaux repose sur des hypothèses restrictives et demande une interprétation critique. Ce travail présente une série d'études de cas investiguant les possibilités et limitations de cette approche pour prédire l'impact des changements globaux. Deux études traitant des menaces sur les espèces rares et en danger d'extinction sont présentées. Les caractéristiques éco-géographiques de 118 plantes avec un haut degré de priorité de conservation sont revues. La prévalence des types de rareté sont analysées en relation avec leur risque d'extinction UICN. La revue souligne l'importance de la conservation à l'échelle régionale. Une évaluation de la rareté à échelle globale peut être trompeuse pour certaine espèces car elle ne tient pas en compte des différents degrés de rareté que présente une espèce à différentes échelles spatiales. La deuxième étude test une approche pour améliorer l'échantillonnage d'espèces rares en incluant des phases itératives de modélisation et d'échantillonnage sur le terrain. L'application de l'approche en biologie de la conservation (illustrée ici par le cas du chardon bleu, Eryngium alpinum), permettrait de réduire le temps et les coûts d'échantillonnage. Deux études sur l'impact des changements climatiques sur la faune et la flore africaine sont présentées. La première étude évalue la sensibilité de 227 mammifères africains face aux climatiques d'ici 2050. Elle montre qu'un nombre important d'espèces pourrait être bientôt en danger d'extinction et que les parcs nationaux africains (principalement ceux situé en milieux xériques) pourraient ne pas remplir leur mandat de protection de la biodiversité dans le futur. La seconde étude modélise l'aire de répartition en 2050 de 975 espèces de plantes endémiques du sud de l'Afrique. L'étude propose l'inclusion de méthodes améliorant la prédiction des risques liés aux changements climatiques. Elle propose également une méthode pour estimer a priori la sensibilité d'une espèce aux changements climatiques à partir de ses propriétés écologiques et des caractéristiques de son aire de répartition. Trois études illustrent l'utilisation des modèles dans l'étude des invasions biologiques. Une première étude relate l'expansion de la laitue sáuvage (Lactuca serriola) vers le nord de l'Europe en lien avec les changements du climat depuis 250 ans. La deuxième étude analyse le potentiel d'invasion de la centaurée tachetée (Centaures maculosa), une mauvaise herbe importée en Amérique du nord vers 1890. L'étude apporte la preuve qu'une espèce envahissante peut occuper une niche climatique différente après introduction sur un autre continent. Les modèles basés sur l'aire native prédisent de manière incorrecte l'entier de l'aire envahie mais permettent de prévoir les aires d'introductions potentielles. Une méthode alternative, incluant la calibration du modèle à partir des deux aires où l'espèce est présente, est proposée pour améliorer les prédictions de l'invasion en Amérique du nord. Je présente finalement une revue de la littérature sur la dynamique de la niche écologique dans le temps et l'espace. Elle synthétise les récents développements théoriques concernant le conservatisme de la niche et propose des solutions pour améliorer la pertinence des prédictions d'impact des changements climatiques et des invasions biologiques. SUMMARY Evidences are accumulating that biodiversity is facing the effects of global change. The most influential drivers of change in ecosystems are land-use change, alien species invasions and climate change impacts. Accurate projections of species' responses to these changes are needed to propose mitigation measures to slow down the on-going erosion of biodiversity. Niche-based models (NBM) currently represent one of the only tools for such projections. However, their application in the context of global changes relies on restrictive assumptions, calling for cautious interpretations. In this thesis I aim to assess the effectiveness and shortcomings of niche-based models for the study of global change impacts on biodiversity through the investigation of specific, unsolved limitations and suggestion of new approaches. Two studies investigating threats to rare and endangered plants are presented. I review the ecogeographic characteristic of 118 endangered plants with high conservation priority in Switzerland. The prevalence of rarity types among plant species is analyzed in relation to IUCN extinction risks. The review underlines the importance of regional vs. global conservation and shows that a global assessment of rarity might be misleading for some species because it can fail to account for different degrees of rarity at a variety of spatial scales. The second study tests a modeling framework including iterative steps of modeling and field surveys to improve the sampling of rare species. The approach is illustrated with a rare alpine plant, Eryngium alpinum and shows promise for complementing conservation practices and reducing sampling costs. Two studies illustrate the impacts of climate change on African taxa. The first one assesses the sensitivity of 277 mammals at African scale to climate change by 2050 in terms of species richness and turnover. It shows that a substantial number of species could be critically endangered in the future. National parks situated in xeric ecosystems are not expected to meet their mandate of protecting current species diversity in the future. The second study model the distribution in 2050 of 975 endemic plant species in southern Africa. The study proposes the inclusion of new methodological insights improving the accuracy and ecological realism of predictions of global changes studies. It also investigates the possibility to estimate a priori the sensitivity of a species to climate change from the geographical distribution and ecological proprieties of the species. Three studies illustrate the application of NBM in the study of biological invasions. The first one investigates the Northwards expansion of Lactuca serriola L. in Europe during the last 250 years in relation with climate changes. In the last two decades, the species could not track climate change due to non climatic influences. A second study analyses the potential invasion extent of spotted knapweed, a European weed first introduced into North America in the 1890s. The study provides one of the first empirical evidence that an invasive species can occupy climatically distinct niche spaces following its introduction into a new area. Models fail to predict the current full extent of the invasion, but correctly predict areas of introduction. An alternative approach, involving the calibration of models with pooled data from both ranges, is proposed to improve predictions of the extent of invasion on models based solely on the native range. I finally present a review on the dynamic nature of ecological niches in space and time. It synthesizes the recent theoretical developments to the niche conservatism issues and proposes solutions to improve confidence in NBM predictions of the impacts of climate change and species invasions on species distributions.
Resumo:
Rapport de synthèseLe syndrome d'apnées obstructives du sommeil (SAOS) est une pathologie respiratoire fréquente. Sa prévalence est estimée entre 2 et 5% de la population adulte générale. Ses conséquences sont importantes. Notamment, une somnolence diurne, des troubles de la concentration, des troubles de la mémoire et une augmentation du risque d'accident de la route et du travail. Il représente également un facteur de risque cardiovasculaire indépendant.Ce syndrome est caractérisé par la survenue durant le sommeil d'obstructions répétées des voies aériennes supérieures. L'arrêt ou la diminution d'apport en oxygène vers les poumons entraîne des épisodes de diminution de la saturation en oxygène de l'hémoglobine. Les efforts ventilatoires visant à lever l'obstacle présent sur les voies aériennes causent de fréquents réveils à l'origine d'une fragmentation du sommeil.La polysomnographie (PSG) représente le moyen diagnostic de choix. Il consiste en l'enregistrement dans un laboratoire du sommeil et en présence d'un technicien diplômé, du tracé électroencéphalographique (EEG), de l'électrooculogramme (EOG), de l'électromyogramme mentonnier (EMG), du flux respiratoire nasal, de l'oxymétrie de pouls, de la fréquence cardiaque, de l'électrocardiogramme (ECG), des mouvements thoraciques et abdominaux, de la position du corps et des mouvements des jambes. L'examen est filmé par caméra infrarouge et les sons sont enregistrés.Cet examen permet entre autres mesures, de déterminer les événements respiratoires obstructifs nécessaires au diagnostic de syndrome d'apnée du sommeil. On définit une apnée lors d'arrêt complet du débit aérien durant au moins 10 secondes et une hypopnée en cas, soit de diminution franche de l'amplitude du flux respiratoire supérieure à 50% durant au moins 10 secondes, soit de diminution significative (20%) de l'amplitude du flux respiratoire pendant au minimum 10 secondes associée à un micro-éveil ou à une désaturation d'au moins 3% par rapport à la ligne de base. La détection des micro-éveils se fait en utilisant les dérivations électroencéphalographiques, électromyographiques et électrooculographiques. Il existe des critères visuels de reconnaissance de ces éveils transitoire: apparition de rythme alpha (8.1 à 12.0 Hz) ou beta (16 à 30 Hz) d'une durée supérieure à 3 secondes [20-21].Le diagnostic de S AOS est retenu si l'on retrouve plus de 5 événements respiratoires obstructifs par heure de sommeil associés soit à une somnolence diurne évaluée selon le score d'Epworth ou à au moins 2 symptômes parmi les suivants: sommeil non réparateur, étouffements nocturne, éveils multiples, fatigue, troubles de la concentration. Le S AOS est gradué en fonction du nombre d'événements obstructifs par heure de sommeil en léger (5 à 15), modéré (15 à 30) et sévère (>30).La polysomnographie (PSG) comporte plusieurs inconvénients pratiques. En effet, elle doit être réalisée dans un laboratoire du sommeil avec la présence permanente d'un technicien, limitant ainsi son accessibilité et entraînant des délais diagnostiques et thérapeutiques. Pour ces mêmes raisons, il s'agit d'un examen onéreux.La polygraphie respiratoire (PG) représente l'alternative diagnostique au gold standard qu'est l'examen polysomnographique. Cet examen consiste en l'enregistrement en ambulatoire, à savoir au domicile du patient, du flux nasalrespiratoire, de l'oxymétrie de pouls, de la fréquence cardiaque, de la position du corps et du ronflement (par mesure de pression).En raison de sa sensibilité et sa spécificité moindre, la PG reste recommandée uniquement en cas de forte probabilité de SAOS. Il existe deux raisons principales à l'origine de la moindre sensibilité de l'examen polygraphique. D'une part, du fait que l'état de veille ou de sommeil n'est pas déterminé avec précision, il y a dilution des événements respiratoires sur l'ensemble de l'enregistrement et non sur la période de sommeil uniquement. D'autre part, en l'absence de tracé EEG, la quantification des micro-éveils est impossible. Il n'est donc pas possible dans l'examen poly graphique, de reconnaître une hypopnée en cas de diminution de flux respiratoire de 20 à 50% non associée à un épisode de désaturation de l'hémoglobine de 3% au moins. Alors que dans l'examen polysomnographique, une telle diminution du flux respiratoire pourrait être associée à un micro-éveil et ainsi comptabilisée en tant qu'hypopnée.De ce constat est né la volonté de trouver un équivalent de micro-éveil en polygraphie, en utilisant les signaux à disposition, afin d'augmenter la sensibilité de l'examen polygraphique.Or plusieurs études ont démontrés que les micro-éveils sont associés à des réactions du système nerveux autonome. Lors des micro-éveils, on met en évidence la survenue d'une vasoconstriction périphérique. La variation du tonus sympathique associée aux micro-éveils peut être mesurée par différentes méthodes. Les variations de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie représentant un marqueur fiable de la vasoconstriction périphérique associée aux micro-réveils, il paraît donc opportun d'utiliser ce marqueur autonomique disponible sur le tracé des polygraphies ambulatoires afin de renforcer la sensibilité de cet examen.Le but de l'étude est d'évaluer la sensibilité des variations de l'amplitude de l'onde de pouls pour détecter des micro-réveils corticaux afin de trouver un moyen d'augmenter la sensibilité de l'examen polygraphique et de renforcer ainsi sont pouvoir diagnostic.L'objectif est de démontrer qu'une diminution significative de l'amplitude de l'onde pouls est concomitante à une activation corticale correspondant à un micro¬réveil. Cette constatation pourrait permettre de déterminer une hypopnée, en polygraphie, par une diminution de 20 à 50% du flux respiratoire sans désaturation de 3% mais associée à une baisse significative de l'amplitude de pouls en postulant que l'événement respiratoire a entraîné un micro-réveil. On retrouve par cette méthode les mêmes critères de scoring d'événements respiratoires en polygraphie et en polysomnographie, et l'on renforce la sensibilité de la polygraphie par rapport au gold standard polysomnographique.La méthode consiste à montrer en polysomnographie qu'une diminution significative de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie est associée à une activation du signal électroencéphalographique, en réalisant une analyse spectrale du tracé EEG lors des baisses d'amplitude du signal d'onde de pouls.Pour ce faire nous avons réalisé une étude rétrospective sur plus de 1000 diminutions de l'amplitude de l'onde de pouls sur les tracés de 10 sujets choisis de manière aléatoire parmi les patients référés dans notre centre du sommeil (CIRS) pour suspicion de trouble respiratoire du sommeil avec somnolence ou symptomatologie diurne.Les enregistrements nocturnes ont été effectués de manière standard dans des chambres individuelles en utilisant le système d'acquisition Embla avec l'ensemble des capteurs habituels. Les données ont été par la suite visuellement analysées et mesurées en utilisant le software Somnologica version 5.1, qui fournit un signal de l'amplitude de l'onde de pouls (puise wave amplitude - PWA).Dans un premier temps, un technicien du sommeil a réalisé une analyse visuelle du tracé EEG, en l'absence des données du signal d'amplitude d'onde de pouls. Il a déterminé les phases d'éveil et de sommeil, les stades du sommeil et les micro¬éveils selon les critères standards. Les micro-éveils sont définis lors d'un changement abrupt dans la fréquence de l'EEG avec un pattern d'ondes thêta-alpha et/ou une fréquence supérieure à 16 Hz (en l'absence de fuseau) d'une durée d'au minimum trois secondes. Si cette durée excède quinze secondes, l'événement correspond à un réveil.Puis, deux investigateurs ont analysé le signal d'amplitude d'onde de pouls, en masquant les données du tracé EEG qui inclut les micro-éveils. L'amplitude d'onde de pouls est calculée comme la différence de valeur entre le zénith et le nadir de l'onde pour chaque cycle cardiaque. Pour chaque baisse de l'amplitude d'onde de pouls, la plus grande et la plus petite amplitude sont déterminées et le pourcentage de baisse est calculé comme le rapport entre ces deux amplitudes. On retient de manière arbitraire une baisse d'au moins 20% comme étant significative. Cette limite a été choisie pour des raisons pratiques et cliniques, dès lors qu'elle représentait, à notre sens, la baisse minimale identifiable à l'inspection visuelle. Chaque baisse de PWA retenue est divisée en 5 périodes contiguës de cinq secondes chacune. Deux avant, une pendant et deux après la baisse de PWA.Pour chaque période de cinq secondes, on a pratiqué une analyse spectrale du tracé EEG correspondant. Le canal EEG C4-A1 est analysé en utilisant la transformée rapide de Fourier (FFT) pour chaque baisse de PWA et pour chaque période de cinq secondes avec une résolution de 0.2 Hz. La distribution spectrale est catégorisée dans chaque bande de fréquence: delta (0.5 à 4.0 Hz); thêta (4.1 à 8.0Hz); alpha (8.1 à 12.0 Hz); sigma (12.1 à 16 Hz) et beta (16.1 à 30.0 Hz). La densité de puissance (power density, en μΥ2 ) pour chaque bande de fréquence a été calculée et normalisée en tant que pourcentage de la puissance totale. On a déterminé, ensuite, la différence de densité de puissance entre les 5 périodes par ANOVA on the rank. Un test post hoc Tukey est été utilisé pour déterminer si les différences de densité de puissance étaient significatives. Les calculs ont été effectués à l'aide du software Sigmastat version 3.0 (Systat Software San Jose, California, USA).Le principal résultat obtenu dans cette étude est d'avoir montré une augmentation significative de la densité de puissance de l'EEG pour toutes les bandes de fréquence durant la baisse de l'amplitude de l'onde de pouls par rapport à la période avant et après la baisse. Cette augmentation est par ailleurs retrouvée dans la plupart des bande de fréquence en l'absence de micro-réveil visuellement identifié.Ce résultat témoigné donc d'une activation corticale significative associée à la diminution de l'onde de pouls. Ce résulat pourrait permettre d'utiliser les variations de l'onde de pouls dans les tracés de polygraphie comme marqueur d'une activation corticale. Cependant on peut dire que ce marqueur est plus sensible que l'analyse visuelle du tracé EEG par un technicien puisque qu'on notait une augmentation de lactivité corticale y compris en l'absence de micro-réveil visuellement identifié. L'application pratique de ces résultats nécessite donc une étude prospective complémentaire.
Resumo:
AbstractPlants are sessile organisms, which have evolved an astonishing ability to sense changes in their environment. Depending on the surrounding conditions, such as changes in light and temperature, plants modulate the activity of important transcriptional regulators. The shade avoidance syndrome (SAS) is one important mechanism for shade-intolerant plants to adapt their growth in high vegetative density. In shaded conditions plants sense a diminished red/far-red ratio via the phytochrome system and respond with morphological changes such as elongation growth of stems and petioles. The Phytochrome Interacting Factors 4 and 5 (PIF4 and PIF5) are positive regulators of the SAS and required for a full response (Lorrain et al, 2008). They regulate the SAS by inducing the expression of shade avoidance marker genes such as PIL1, ATHB2, XTR7 and HFR1 (Hornitschek et al, 2009; Lorrain et al, 2008).I investigated the molecular mechanism underlying the regulation of the SAS by HFR1 (long Hypocotyl in FR light). Although HFR1 is a PIF-related bHLH transcription factor, we discovered that HFR1 is a non-DNA binding protein. Moreover, we revealed that HFR1 inhibits an exaggerated SAS by forming non-DNA binding heterodimers with PIF4 and PIF5 (Hornitschek et al, 2009). This negative feedback loop is an important mechanism to limit elongation growth also in elevated temperatures. HFR1 accumulation and activity are highly temperature-dependent and the increased activity of HFR1 at warmer temperatures also provides an important restraint on PIF4-driven elongation growth (Foreman et al, 2011).Finally we performed a genome-wide analysis to determine how PIF4 and PIF5 regulate growth in response to shade. We identified potential PIF5- target genes, which represent many well-known shade-responsive genes. Our analysis of gene expression also revealed a role of PIF4 and PIF5 in simulated sun possibly via the regulation of auxin sensitivity.RésuméLes plantes sont des organismes sessiles ayant développé une capacité surprenante à détecter des changements dans leur environnement. En fonction des conditions extérieures, telles que les variations de lumière ou de température, elles adaptent l'activité d'importants régulateurs transcriptionnels. Le syndrome d'évitement de l'ombre (SAS), est un mécanisme important pour les plantes intolérantes à l'ombre leur permettant d'adapter leur croissance lorsqu'elles se développent dans des conditions de végétations très denses. Dans ces conditions, les plantes détectent une réduction de la quantité relative de lumière rouge par rapport à la lumière rouge-lointain (rapport R/FR). Ce changement, perçu via le système des phytochromes, induit des modifications morphologiques telle qu'une élongation des tiges et des pétioles. Les protéines PIF4 et PIF5 (Phytochrome Interacting Factors) sont des régulateurs positifs du SAS et sont nécessaires pour une réponse complète (Lorrain et al, 2008). Ces facteurs de transcription régulent le SAS en induisant l'expression de gènes marqueurs de cette réponse tels que PIL1, ATHB2, XTR7 et HFR1 (Hornitschek et al, 2009; Lorrain et al, 2008).J'ai étudié les mécanismes moléculaires sous-jacents à la régulation du SAS par HFR1 (long Hypocotyl in FR light). HFR1 est un facteur de transcription type bHLH de la famille des PIF, quoique nous ayons découvert que HFR1 est une protéine ne se liant pas à Γ ADN. Nous avons montré que HFR1 inhibe un SAS exagéré en formant des heterodimères avec PIF4 et PIF5 (Hornitschek et al, 2009). Nous avons également montré que cette boucle de régulation négative est également un mécanisme important pour limiter la croissance de l'élongation dans des conditions de fortes températures. De plus l'accumulation et l'activité de HFR1 augmentent avec la température ce qui permet d'inhiber plus fortement l'effet activateur de PIF4 sur la croissance.Enfin, nous avons effectué une analyse génomique à large échelle afin de déterminer comment PIF4 et PIF5 régulent la croissance en réponse à l'ombre. Nous avons identifié les gènes cibles potentiels de PIF5, correspondant en partie à des gènes connus dans la réponse de l'évitement de l'ombre. Notre analyse de l'expression des gènes a également révélé un rôle important de PIF4 et PIF5 dans des conditions de croissance en plein soleil, probablement via la régulation de la sensibilité à l'auxine.