999 resultados para Cointégration des données de panel
Resumo:
Depuis les années 1980, la sociologie a connu une résurgence des thèses du déclin des classes sociales qui a provoqué d'importants débats. En matière d'évolution de la structure de classe plus particulièrement, le débat se focalise sur les thèses dites de la « moyennisation » de la société et de l'« aspiration vers le haut ». Dans ce cadre, la société (postindustrielle) serait désormais constituée d'une vaste classe moyenne tendant à provoquer une dissolution générale des frontières de classes. Cet article est une contribution empirique à ce débat et porte, plus précisément, sur l'évolution de la société suisse contemporaine. A priori, le cas suisse peut sembler favorable aux thèses du déclin des classes sociales. En effet, en comparaison européenne, la Suisse connaît un secteur des services supérieur à la moyenne, un chômage inférieur à celle-ci ou encore un niveau de rémunération supérieur à la moyenne ; tous phénomènes souvent mis en avant pour expliquer le déclin affirmé des classes sociales. Afin d'évaluer les thèses sous revue, une série d'hypothèses ont été formulées au sujet de l'évolution de la division du travail (mesurée selon la classification internationale des professions) d'une part, de la structure de classe (approchée par les catégories socioprofessionnelles helvétiques) d'autre part. L'analyse se base sur des données secondaires, ce qui implique une dépendance vis-à-vis des pratiques des institutions « productrices ». Malgré ces limitations méthodologiques, l'analyse montre que - au moins prises comme un tout cohérent - les thèses du déclin des classes sociales sont réfutées dans le cas, pourtant favorable en principe, de la société suisse contemporaine. Ainsi, entre autres, cette dernière s'avère n'être pas plus une société de classes moyennes que de classes populaires ; ce qui la rapproche d'ailleurs de nombreuses sociétés européennes.
Resumo:
AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.
Resumo:
Résumé: L'évaluation de l'exposition aux nuisances professionnelles représente une étape importante dans l'analyse de poste de travail. Les mesures directes sont rarement utilisées sur les lieux même du travail et l'exposition est souvent estimée sur base de jugements d'experts. Il y a donc un besoin important de développer des outils simples et transparents, qui puissent aider les spécialistes en hygiène industrielle dans leur prise de décision quant aux niveaux d'exposition. L'objectif de cette recherche est de développer et d'améliorer les outils de modélisation destinés à prévoir l'exposition. Dans un premier temps, une enquête a été entreprise en Suisse parmi les hygiénistes du travail afin d'identifier les besoins (types des résultats, de modèles et de paramètres observables potentiels). Il a été constaté que les modèles d'exposition ne sont guère employés dans la pratique en Suisse, l'exposition étant principalement estimée sur la base de l'expérience de l'expert. De plus, l'émissions de polluants ainsi que leur dispersion autour de la source ont été considérés comme des paramètres fondamentaux. Pour tester la flexibilité et la précision des modèles d'exposition classiques, des expériences de modélisations ont été effectuées dans des situations concrètes. En particulier, des modèles prédictifs ont été utilisés pour évaluer l'exposition professionnelle au monoxyde de carbone et la comparer aux niveaux d'exposition répertoriés dans la littérature pour des situations similaires. De même, l'exposition aux sprays imperméabilisants a été appréciée dans le contexte d'une étude épidémiologique sur une cohorte suisse. Dans ce cas, certains expériences ont été entreprises pour caractériser le taux de d'émission des sprays imperméabilisants. Ensuite un modèle classique à deux-zone a été employé pour évaluer la dispersion d'aérosol dans le champ proche et lointain pendant l'activité de sprayage. D'autres expériences ont également été effectuées pour acquérir une meilleure compréhension des processus d'émission et de dispersion d'un traceur, en se concentrant sur la caractérisation de l'exposition du champ proche. Un design expérimental a été développé pour effectuer des mesures simultanées dans plusieurs points d'une cabine d'exposition, par des instruments à lecture directe. Il a été constaté que d'un point de vue statistique, la théorie basée sur les compartiments est sensée, bien que l'attribution à un compartiment donné ne pourrait pas se faire sur la base des simples considérations géométriques. Dans une étape suivante, des données expérimentales ont été collectées sur la base des observations faites dans environ 100 lieux de travail différents: des informations sur les déterminants observés ont été associées aux mesures d'exposition des informations sur les déterminants observés ont été associé. Ces différentes données ont été employées pour améliorer le modèle d'exposition à deux zones. Un outil a donc été développé pour inclure des déterminants spécifiques dans le choix du compartiment, renforçant ainsi la fiabilité des prévisions. Toutes ces investigations ont servi à améliorer notre compréhension des outils des modélisations ainsi que leurs limitations. L'intégration de déterminants mieux adaptés aux besoins des experts devrait les inciter à employer cet outil dans leur pratique. D'ailleurs, en augmentant la qualité des outils des modélisations, cette recherche permettra non seulement d'encourager leur utilisation systématique, mais elle pourra également améliorer l'évaluation de l'exposition basée sur les jugements d'experts et, par conséquent, la protection de la santé des travailleurs. Abstract Occupational exposure assessment is an important stage in the management of chemical exposures. Few direct measurements are carried out in workplaces, and exposures are often estimated based on expert judgements. There is therefore a major requirement for simple transparent tools to help occupational health specialists to define exposure levels. The aim of the present research is to develop and improve modelling tools in order to predict exposure levels. In a first step a survey was made among professionals to define their expectations about modelling tools (what types of results, models and potential observable parameters). It was found that models are rarely used in Switzerland and that exposures are mainly estimated from past experiences of the expert. Moreover chemical emissions and their dispersion near the source have also been considered as key parameters. Experimental and modelling studies were also performed in some specific cases in order to test the flexibility and drawbacks of existing tools. In particular, models were applied to assess professional exposure to CO for different situations and compared with the exposure levels found in the literature for similar situations. Further, exposure to waterproofing sprays was studied as part of an epidemiological study on a Swiss cohort. In this case, some laboratory investigation have been undertaken to characterize the waterproofing overspray emission rate. A classical two-zone model was used to assess the aerosol dispersion in the near and far field during spraying. Experiments were also carried out to better understand the processes of emission and dispersion for tracer compounds, focusing on the characterization of near field exposure. An experimental set-up has been developed to perform simultaneous measurements through direct reading instruments in several points. It was mainly found that from a statistical point of view, the compartmental theory makes sense but the attribution to a given compartment could ñó~be done by simple geometric consideration. In a further step the experimental data were completed by observations made in about 100 different workplaces, including exposure measurements and observation of predefined determinants. The various data obtained have been used to improve an existing twocompartment exposure model. A tool was developed to include specific determinants in the choice of the compartment, thus largely improving the reliability of the predictions. All these investigations helped improving our understanding of modelling tools and identify their limitations. The integration of more accessible determinants, which are in accordance with experts needs, may indeed enhance model application for field practice. Moreover, while increasing the quality of modelling tool, this research will not only encourage their systematic use, but might also improve the conditions in which the expert judgments take place, and therefore the workers `health protection.
Resumo:
Introduction: Des unités d'attente de placement ont vu le jour pour¦répondre à la pénurie de lits d'hébergement de long séjour dans le¦Canton de Vaud et désengorger les hôpitaux aigus. Pour les patients¦qui y sont admis, la décision de placement intervient au sortir d'une¦hospitalisation aiguë, laissant peu de temps à la personne pour¦cheminer face à cette décision. Cette étude pilote vise à investiguer¦le degré de sérénité de ces patients face à l'hébergement de longue¦durée et déterminer s'il existe une relation avec la durée d'attente ou¦le décès en unité d'attente.¦Population et méthode: Personnes âgées (N = 78) admises dans¦une structure d'attente et préparation à l'hébergement de longue¦durée après un séjour hospitalier aigu. Des données démographiques,¦fonctionnelles, cognitives et affectives ont été récoltées dans les 4¦semaines après l'admission. La sérénité ressentie face à l'hébergement¦longue durée a été évaluée à l'aide d'une échelle de type Likert à¦quatre niveaux (pas du tout/plutôt pas/plutôt/tout à fait serein).¦Résultats: Les patients étaient âgés de 85.6 ans en moyenne, 74%¦(58/78) étaient des femmes, 47% (37/78) avaient des troubles cognitifs¦et 35% (27/78) des troubles dépressifs. Globalement 24% (19/78)¦des patients se déclaraient peu ou pas du tout sereins face au¦placement. Comparés aux patients sereins, ces 19 patients étaient¦significativement (p <.05) moins âgés (83.2 ± 1.0 vs 86.8 ± 6.5 ans),¦plus dépendants dans les activités de la vie quotidienne (BAVQ 2.5 ±¦1.7 vs 3.5 ± 1.6), plus déprimés (GDS 15-items 7.0 ± 3.5 vs 4.4 ± 3.0),¦et avaient plus souvent des antécédents de chutes (95% vs 75%). En¦analyse multivariée, le manque de sérénité restait significativement¦associé à une dépendance plus élevée dans les BAVQ, à un score¦GDS plus élevé ainsi qu'aux antécédents de chute. Il n'y avait pas de¦différence significative en termes de durée moyenne de séjour avant le¦placement (90.0 ± 57.3j vs 87.8 ± 73.2, médianes 85 vs 57, P = .45), ni¦de mortalité dans l'unité d'attente (5% vs 5%) entre les deux groupes¦de patients.¦Conclusion: Près d'un quart des patients en unité d'attente se¦déclarent peu sereins face à la perspective du placement. Ces patients¦sont plus dépendants, ont des antécédents de chutes et sont plus¦déprimés, ce qui souligne l'importance d'une identification précoce de¦ces patients afin de leur offrir un soutien dans cette période difficile de¦transition dans leur parcours de vie.
Resumo:
RESUME Introduction : La prophylaxie du système nerveux central lors d'un diagnostic de leucémie lymphoblastique aiguë de l'enfant a permis de réduire le risque de rechute mais a été associée dans certains cas à des neurotoxicités cliniques ou des anomalies radiologiques. Des moyens de prédire ces neurotoxicités font défaut, en particulier en raison de l'absence de corrélation claire entre les signes cliniques et les images radiologiques. Quelques auteurs ont suggéré que les taux de protéine basique de la myéline (MBP) mesurés dans le liquide céphalo-rachidien pouvaient avoir un intérêt dans ce contexte. Uné étude rétrospective de ces taux en relation avec des données cliniques et radiologiques est présentée dans ce travail. Matériel et Méthodes : Les taux de MBP mesurés dans le liquide céphalo-rachidien lors d'administration de chimiothérapie intrathécale, les examens cliniques neurologiques et les rapports radiologiques ont été rétrospectivement étudiés chez nos patients. Les données concernant des difficultés académiques éventuelles, ainsi que le niveau académique atteint ont été récoltées par l'intermédiaire de contacts téléphoniques réguliers organisés dans le cadre du suivi à long terme de nos patients. Résultats : Un total de 1248 dosages de MBP chez 83 patients, 381 examens neurologiques chez 34 patients et 69 rapports d'investigations neuroradiologiques chez 27 patients ont été analysés. Cinquante-deux patients ont eut au moins un taux anormal de MBP. Des anomalies radiologiques ont été décrites chez 47% de ces patients, parmi lesquels 14% ont présenté des difficultés scolaires sous une forme ou sous une autre. La proportion de patients ayant présenté des difficultés scolaires dans les groupes avec taux de MBP normal mais sans anomalies radiologiques décrites ou sans investigations radiologiques étaient respectivement de 0% et 3%, inférieurs dans tous les cas au groupe avec des taux normaux de MBP (100%, 22% and 5% respectivement). Discussion : Tout en prenant en compte les limitations dues à l'aspect rétrospectif de cette étude, nous avons conclu à une utilité limitée de ces dosages systématiques comme indicateur d'une neurotoxicité induite parle traitement dans le contexte de nos patients oncologiques. ABSTRACT Introduction : Central nervous system (CSF) prophylaxis of childhood acute lymphoblastic leukemia has dropped rates of relapses but has been associated wíth neurotoxicity and imaging abnormalities. Predictors of neurotoxícity are lacking, because of inconsistency between clinical symptoms and imaging. Some have suggested CSF Myelin Basic Protein (MBP) levels to be of potential interest. A retrospective analysis of MBP levels in correlation with clinical and radiological data is presented. Materials and Methods : MBP levels obtained at the time of intrathecals, charts, and neuroradiology reports were retrospectively analyzed. Academic achievement data were obtained from phone contacts with patients and families. Results : We retrieved 1248 dosages of MBP in 83 patients, 381 neurological exams in 34 patients and 69 neuroradiological investigations in 27 patients. Fifty-two patients had abnormal MBP levels. Radiological anomalies were present in 47% of those investigated, 14% of them having school difficulties. Proportions of patients with school difficulties in the groups with abnormal MBP levels but no radiological anomalies or with no radiological investigations were 0% and 3% respectively, which was lower than in the group of patients with normal MBP levels (100%, 22% and 5% respectively). Discussion : Notwithstanding the retrospective character of our study, we conclude that there is limited usefulness of systematic dosage of MBP as indicator of treatment-induced neurotoxicity in ALL patients.
Resumo:
SUMMARYSpecies distribution models (SDMs) represent nowadays an essential tool in the research fields of ecology and conservation biology. By combining observations of species occurrence or abundance with information on the environmental characteristic of the observation sites, they can provide information on the ecology of species, predict their distributions across the landscape or extrapolate them to other spatial or time frames. The advent of SDMs, supported by geographic information systems (GIS), new developments in statistical models and constantly increasing computational capacities, has revolutionized the way ecologists can comprehend species distributions in their environment. SDMs have brought the tool that allows describing species realized niches across a multivariate environmental space and predict their spatial distribution. Predictions, in the form of probabilistic maps showing the potential distribution of the species, are an irreplaceable mean to inform every single unit of a territory about its biodiversity potential. SDMs and the corresponding spatial predictions can be used to plan conservation actions for particular species, to design field surveys, to assess the risks related to the spread of invasive species, to select reserve locations and design reserve networks, and ultimately, to forecast distributional changes according to scenarios of climate and/or land use change.By assessing the effect of several factors on model performance and on the accuracy of spatial predictions, this thesis aims at improving techniques and data available for distribution modelling and at providing the best possible information to conservation managers to support their decisions and action plans for the conservation of biodiversity in Switzerland and beyond. Several monitoring programs have been put in place from the national to the global scale, and different sources of data now exist and start to be available to researchers who want to model species distribution. However, because of the lack of means, data are often not gathered at an appropriate resolution, are sampled only over limited areas, are not spatially explicit or do not provide a sound biological information. A typical example of this is data on 'habitat' (sensu biota). Even though this is essential information for an effective conservation planning, it often has to be approximated from land use, the closest available information. Moreover, data are often not sampled according to an established sampling design, which can lead to biased samples and consequently to spurious modelling results. Understanding the sources of variability linked to the different phases of the modelling process and their importance is crucial in order to evaluate the final distribution maps that are to be used for conservation purposes.The research presented in this thesis was essentially conducted within the framework of the Landspot Project, a project supported by the Swiss National Science Foundation. The main goal of the project was to assess the possible contribution of pre-modelled 'habitat' units to model the distribution of animal species, in particular butterfly species, across Switzerland. While pursuing this goal, different aspects of data quality, sampling design and modelling process were addressed and improved, and implications for conservation discussed. The main 'habitat' units considered in this thesis are grassland and forest communities of natural and anthropogenic origin as defined in the typology of habitats for Switzerland. These communities are mainly defined at the phytosociological level of the alliance. For the time being, no comprehensive map of such communities is available at the national scale and at fine resolution. As a first step, it was therefore necessary to create distribution models and maps for these communities across Switzerland and thus to gather and collect the necessary data. In order to reach this first objective, several new developments were necessary such as the definition of expert models, the classification of the Swiss territory in environmental domains, the design of an environmentally stratified sampling of the target vegetation units across Switzerland, the development of a database integrating a decision-support system assisting in the classification of the relevés, and the downscaling of the land use/cover data from 100 m to 25 m resolution.The main contributions of this thesis to the discipline of species distribution modelling (SDM) are assembled in four main scientific papers. In the first, published in Journal of Riogeography different issues related to the modelling process itself are investigated. First is assessed the effect of five different stepwise selection methods on model performance, stability and parsimony, using data of the forest inventory of State of Vaud. In the same paper are also assessed: the effect of weighting absences to ensure a prevalence of 0.5 prior to model calibration; the effect of limiting absences beyond the environmental envelope defined by presences; four different methods for incorporating spatial autocorrelation; and finally, the effect of integrating predictor interactions. Results allowed to specifically enhance the GRASP tool (Generalized Regression Analysis and Spatial Predictions) that now incorporates new selection methods and the possibility of dealing with interactions among predictors as well as spatial autocorrelation. The contribution of different sources of remotely sensed information to species distribution models was also assessed. The second paper (to be submitted) explores the combined effects of sample size and data post-stratification on the accuracy of models using data on grassland distribution across Switzerland collected within the framework of the Landspot project and supplemented with other important vegetation databases. For the stratification of the data, different spatial frameworks were compared. In particular, environmental stratification by Swiss Environmental Domains was compared to geographical stratification either by biogeographic regions or political states (cantons). The third paper (to be submitted) assesses the contribution of pre- modelled vegetation communities to the modelling of fauna. It is a two-steps approach that combines the disciplines of community ecology and spatial ecology and integrates their corresponding concepts of habitat. First are modelled vegetation communities per se and then these 'habitat' units are used in order to model animal species habitat. A case study is presented with grassland communities and butterfly species. Different ways of integrating vegetation information in the models of butterfly distribution were also evaluated. Finally, a glimpse to climate change is given in the fourth paper, recently published in Ecological Modelling. This paper proposes a conceptual framework for analysing range shifts, namely a catalogue of the possible patterns of change in the distribution of a species along elevational or other environmental gradients and an improved quantitative methodology to identify and objectively describe these patterns. The methodology was developed using data from the Swiss national common breeding bird survey and the article presents results concerning the observed shifts in the elevational distribution of breeding birds in Switzerland.The overall objective of this thesis is to improve species distribution models as potential inputs for different conservation tools (e.g. red lists, ecological networks, risk assessment of the spread of invasive species, vulnerability assessment in the context of climate change). While no conservation issues or tools are directly tested in this thesis, the importance of the proposed improvements made in species distribution modelling is discussed in the context of the selection of reserve networks.RESUMELes modèles de distribution d'espèces (SDMs) représentent aujourd'hui un outil essentiel dans les domaines de recherche de l'écologie et de la biologie de la conservation. En combinant les observations de la présence des espèces ou de leur abondance avec des informations sur les caractéristiques environnementales des sites d'observation, ces modèles peuvent fournir des informations sur l'écologie des espèces, prédire leur distribution à travers le paysage ou l'extrapoler dans l'espace et le temps. Le déploiement des SDMs, soutenu par les systèmes d'information géographique (SIG), les nouveaux développements dans les modèles statistiques, ainsi que la constante augmentation des capacités de calcul, a révolutionné la façon dont les écologistes peuvent comprendre la distribution des espèces dans leur environnement. Les SDMs ont apporté l'outil qui permet de décrire la niche réalisée des espèces dans un espace environnemental multivarié et prédire leur distribution spatiale. Les prédictions, sous forme de carte probabilistes montrant la distribution potentielle de l'espèce, sont un moyen irremplaçable d'informer chaque unité du territoire de sa biodiversité potentielle. Les SDMs et les prédictions spatiales correspondantes peuvent être utilisés pour planifier des mesures de conservation pour des espèces particulières, pour concevoir des plans d'échantillonnage, pour évaluer les risques liés à la propagation d'espèces envahissantes, pour choisir l'emplacement de réserves et les mettre en réseau, et finalement, pour prévoir les changements de répartition en fonction de scénarios de changement climatique et/ou d'utilisation du sol. En évaluant l'effet de plusieurs facteurs sur la performance des modèles et sur la précision des prédictions spatiales, cette thèse vise à améliorer les techniques et les données disponibles pour la modélisation de la distribution des espèces et à fournir la meilleure information possible aux gestionnaires pour appuyer leurs décisions et leurs plans d'action pour la conservation de la biodiversité en Suisse et au-delà. Plusieurs programmes de surveillance ont été mis en place de l'échelle nationale à l'échelle globale, et différentes sources de données sont désormais disponibles pour les chercheurs qui veulent modéliser la distribution des espèces. Toutefois, en raison du manque de moyens, les données sont souvent collectées à une résolution inappropriée, sont échantillonnées sur des zones limitées, ne sont pas spatialement explicites ou ne fournissent pas une information écologique suffisante. Un exemple typique est fourni par les données sur 'l'habitat' (sensu biota). Même s'il s'agit d'une information essentielle pour des mesures de conservation efficaces, elle est souvent approximée par l'utilisation du sol, l'information qui s'en approche le plus. En outre, les données ne sont souvent pas échantillonnées selon un plan d'échantillonnage établi, ce qui biaise les échantillons et par conséquent les résultats de la modélisation. Comprendre les sources de variabilité liées aux différentes phases du processus de modélisation s'avère crucial afin d'évaluer l'utilisation des cartes de distribution prédites à des fins de conservation.La recherche présentée dans cette thèse a été essentiellement menée dans le cadre du projet Landspot, un projet soutenu par le Fond National Suisse pour la Recherche. L'objectif principal de ce projet était d'évaluer la contribution d'unités 'd'habitat' pré-modélisées pour modéliser la répartition des espèces animales, notamment de papillons, à travers la Suisse. Tout en poursuivant cet objectif, différents aspects touchant à la qualité des données, au plan d'échantillonnage et au processus de modélisation sont abordés et améliorés, et leurs implications pour la conservation des espèces discutées. Les principaux 'habitats' considérés dans cette thèse sont des communautés de prairie et de forêt d'origine naturelle et anthropique telles que définies dans la typologie des habitats de Suisse. Ces communautés sont principalement définies au niveau phytosociologique de l'alliance. Pour l'instant aucune carte de la distribution de ces communautés n'est disponible à l'échelle nationale et à résolution fine. Dans un premier temps, il a donc été nécessaire de créer des modèles de distribution de ces communautés à travers la Suisse et par conséquent de recueillir les données nécessaires. Afin d'atteindre ce premier objectif, plusieurs nouveaux développements ont été nécessaires, tels que la définition de modèles experts, la classification du territoire suisse en domaines environnementaux, la conception d'un échantillonnage environnementalement stratifié des unités de végétation cibles dans toute la Suisse, la création d'une base de données intégrant un système d'aide à la décision pour la classification des relevés, et le « downscaling » des données de couverture du sol de 100 m à 25 m de résolution. Les principales contributions de cette thèse à la discipline de la modélisation de la distribution d'espèces (SDM) sont rassemblées dans quatre articles scientifiques. Dans le premier article, publié dans le Journal of Biogeography, différentes questions liées au processus de modélisation sont étudiées en utilisant les données de l'inventaire forestier de l'Etat de Vaud. Tout d'abord sont évalués les effets de cinq méthodes de sélection pas-à-pas sur la performance, la stabilité et la parcimonie des modèles. Dans le même article sont également évalués: l'effet de la pondération des absences afin d'assurer une prévalence de 0.5 lors de la calibration du modèle; l'effet de limiter les absences au-delà de l'enveloppe définie par les présences; quatre méthodes différentes pour l'intégration de l'autocorrélation spatiale; et enfin, l'effet de l'intégration d'interactions entre facteurs. Les résultats présentés dans cet article ont permis d'améliorer l'outil GRASP qui intègre désonnais de nouvelles méthodes de sélection et la possibilité de traiter les interactions entre variables explicatives, ainsi que l'autocorrélation spatiale. La contribution de différentes sources de données issues de la télédétection a également été évaluée. Le deuxième article (en voie de soumission) explore les effets combinés de la taille de l'échantillon et de la post-stratification sur le la précision des modèles. Les données utilisées ici sont celles concernant la répartition des prairies de Suisse recueillies dans le cadre du projet Landspot et complétées par d'autres sources. Pour la stratification des données, différents cadres spatiaux ont été comparés. En particulier, la stratification environnementale par les domaines environnementaux de Suisse a été comparée à la stratification géographique par les régions biogéographiques ou par les cantons. Le troisième article (en voie de soumission) évalue la contribution de communautés végétales pré-modélisées à la modélisation de la faune. C'est une approche en deux étapes qui combine les disciplines de l'écologie des communautés et de l'écologie spatiale en intégrant leurs concepts de 'habitat' respectifs. Les communautés végétales sont modélisées d'abord, puis ces unités de 'habitat' sont utilisées pour modéliser les espèces animales. Une étude de cas est présentée avec des communautés prairiales et des espèces de papillons. Différentes façons d'intégrer l'information sur la végétation dans les modèles de répartition des papillons sont évaluées. Enfin, un clin d'oeil aux changements climatiques dans le dernier article, publié dans Ecological Modelling. Cet article propose un cadre conceptuel pour l'analyse des changements dans la distribution des espèces qui comprend notamment un catalogue des différentes formes possibles de changement le long d'un gradient d'élévation ou autre gradient environnemental, et une méthode quantitative améliorée pour identifier et décrire ces déplacements. Cette méthodologie a été développée en utilisant des données issues du monitoring des oiseaux nicheurs répandus et l'article présente les résultats concernant les déplacements observés dans la distribution altitudinale des oiseaux nicheurs en Suisse.L'objectif général de cette thèse est d'améliorer les modèles de distribution des espèces en tant que source d'information possible pour les différents outils de conservation (par exemple, listes rouges, réseaux écologiques, évaluation des risques de propagation d'espèces envahissantes, évaluation de la vulnérabilité des espèces dans le contexte de changement climatique). Bien que ces questions de conservation ne soient pas directement testées dans cette thèse, l'importance des améliorations proposées pour la modélisation de la distribution des espèces est discutée à la fin de ce travail dans le contexte de la sélection de réseaux de réserves.
Resumo:
ABSTRACT 1. Il existe des données épidémiologiques et expérimentales mettant en lien une carence en fer sans anémie (CF-A) et troubles de la concentration, fatigue, faiblesse musculaire, ainsi que diminution des performances sportives, et ce surtout chez le grand adolescent et l'adulte jeune. Certaines études sont toutefois sujettes à critique, souvent en raison de la présence de facteurs confondants importants associés à la CF-A (niveau d'évidence 1b à 4). Chez l'enfant, les données sont également plus hétérogènes, et d'autant plus difficiles à interpréter que les études à disposition présentent elles-aussi de nombreux facteurs confondants. De manière générale, une certaine prudence doit en conséquence être de mise avant d'attribuer de tels symptômes à une carence en fer (CF).
Resumo:
RésuméL'addiction aux drogues est une maladie multifactorieile affectant toutes les strates de notre société. Cependant, la vulnérabilité à développer une addiction dépend de facteurs environnementaux, génétiques et psychosociaux. L'addiction aux drogues est décrite comme étant une maladie chronique avec un taux élevé de rechutes. Elle se caractérise par un besoin irrépressible de consommer une drogue et une augmentation progressive de la consommation en dépit des conséquences néfastes. Les mécanismes cérébraux responsables des dépendances aux drogues ne sont que partiellement élucidés, malgré une accumulation croissante d'évidences démontrant des adaptations au niveau moléculaire et cellulaire au sein des systèmes dopaminergique et glutamatergique. L'identification de nouveaux facteurs neurobiologiques responsables de la vulnérabilité aux substances d'abus est cruciale pour le développement de nouveaux traitements thérapeutiques capables d'atténuer et de soulager les symptômes liés à la dépendance aux drogues.Au cours des dernières années, de nombreuses études ont démontré qu'un nouveau circuit cérébral, le système hypocrétinergique, était impliqué dans plusieurs fonctions physiologiques, tel que l'éveil, le métabolisme énergétique, la motivation, le stress et les comportements liés aux phénomènes de récompense. Le système hypocrétinergique est composé d'environ 3000-4000 neurones issus de l'hypothalamus latéral projetant dans tout ie cerveau. Des souris transgéniques pour le gène des hypocrétines ont été générées et leur phénotype correspond à celui des animaux sauvages, excepté le fait qu'elles soient atteintes d'attaques de sommeil similaires à celles observées chez les patients narcoleptiques. H semblerait que les hypocrétines soient requises pour l'acquisition et l'expression de la dépendance aux drogues. Cependant, le mécanisme précis reste encore à être élucidé. Dans ce rapport, nous rendons compte des comportements liés aux phénomènes de récompense liés à l'alcool et à la cocaine chez les souris knock-out (KO), hétérozygotes (HET) et sauvages (WT).Nous avons, dans un premier temps, évalué l'impact d'injections répétées de cocaïne (15 mg/kg, ip) sur la sensibilisation locomotrice et sur le conditionnement place préférence. Nous avons pu observer que les souris WT, HET et KO exprimaient une sensibilisation locomotrice induite par une administration chronique de cocaïne, cependant les souris déficientes en hypocrétines démontraient une sensibilisation retardée et atténuée. Π est intéressant de mentionner que les mâles HET exprimaient une sensibilisation comportementale intermédiaire. Après normalisation des données, toutes les souris exprimaient une amplitude de sensibilisation similaire, excepté les souris mâles KO qui affichaient, le premier jour de traitement, une sensibilisation locomotrice réduite et retardée, reflétant un phénotype hypoactif plutôt qu'une altération de la réponse aux traitements chroniques de cocaïne. Contre toute attente, toutes les souris femelles exprimaient un pattern similaire de sensibilisation locomotrice à la cocaïne. Nous avons ensuite évalué l'effet d'un conditionnement comportemental à un environnement associé à des injections répétées de cocaine (15 mg / kg ip). Toutes les souris, quelque soit leur sexe ou leur génotype, ont manifesté une préférence marquée pour l'environnement apparié à la cocaïne. Après deux semaines d'abstinence à la cocaïne, les mâles et les femelles déficientes en hypocrétines n'exprimaient plus aucune préférence pour le compartiment précédemment associé à la cocaïne. Alors que les souris WT et HET maintenaient leur préférence pour le compartiment associé à la cocaïne. Pour finir, à l'aide d'un nouveau paradigme appelé IntelliCage®, nous avons pu évaluer la consommation de liquide chez les femelles WT, HET et KO. Lorsqu'il n'y avait que de l'eau disponible, nous avons observé que les femelles KO avaient tendance à moins explorer les quatre coins de la cage. Lorsque les souris étaient exposées à quatre types de solutions différentes (eau, ImM quinine ou 0.2% saccharine, alcool 8% et alcool 16%), les souris KO avaient tendance à moins consommer l'eau sucrée et les solutions alcoolisées. Cependant, après normalisation des données, aucune différence significative n'a pu être observée entre les différents génotypes, suggérant que la consommation réduite d'eau sucrée ou d'alcool peut être incombée à l'hypoactivité des souris KO.Ces résultats confirment que le comportement observé chez les souris KO serait dû à des compensations développementales, puisque la sensibilisation locomotrice et le conditionnement comportemental à la cocaïne étaient similaires aux souris HET et WT. En ce qui concerne la consommation de liquide, les souris KO avaient tendance à consommer moins d'eau sucrée et de solutions alcoolisées. Le phénotype hypoactif des souris déficientes en hypocrétine est probablement responsable de leur tendance à moins explorer leur environnement. Il reste encore à déterminer si l'expression de ce phénotype est la conséquence d'un état de vigilance amoindri ou d'une motivation diminuée à la recherche de récompense. Nos résultats suggèrent que les souris déficientes en hypocrétine affichent une motivation certaine à la recherche de récompense lorsqu'elles sont exposées à des environnements où peu d'efforts sont à fournir afin d'obtenir une récompense.AbstractDrug addiction is a multifactorial disorder affecting human beings regardless their education level, their economic status, their origin or even their gender, but the vulnerability to develop addiction depends on environmental, genetic and psychosocial dispositions. Drug addiction is defined as a chronic relapsing disorder characterized by compulsive drug seeking, with loss of control over drug intake and persistent maladaptive decision making in spite of adverse consequences. The brain mechanisms responsible for drug abuse remain partially unknown despite accumulating evidence delineating molecular and cellular adaptations within the glutamatergic and the dopaminergic systems. However, these adaptations do not fully explain the complex brain disease of drug addiction. The identification of other neurobiological factors responsible for the vulnerability to substance abuse is crucial for the development of promising therapeutic treatments able to alleviate signs of drug dependence.For the past few years, growing evidence demonstrated that a recently discovered brain circuit, the hypocretinergic system, is implicated in many physiological functions, including arousal, energy metabolism, motivation, stress and reward-related behaviors. The hypocretin system is composed of a few thousands neurons arising from the lateral hypothalamus and projecting to the entire brain. Hypocretin- deficient mice have been generated, and unexpectedly, their phenotype resembles that of wild type mice excepting sleep attacks strikingly similar to those of human narcolepsy patients. Evidence suggesting that hypocretins are required for the acquisition and the expression of drug addiction has also been reported; however the precise mechanism by which hypocretins modulate drug seeking behaviors remains a matter of debate. Here, we report alcohol and cocaine reward-related behaviors in hypocretin-deficient mice (KO), as well as heterozygous (HET) and wild type (WT) littermates.We first evaluated the impact of repeated cocaine injections (15 mg/kg, ip) on locomotor sensitization and conditioned place preference. We observed that WT, HET and KO mice exhibited behavioral sensitization following repeated cocaine administrations, but hypocretin deficient males displayed a delayed and attenuated response to chronic cocaine administrations. Interestingly, HET males exhibited an intermediate pattern of behavioral sensitization. However, after standardization of the post-injection data versus the period of habituation prior to cocaine injections, all mice displayed similar amplitudes of behavioral sensitization, except a reduced response in KO males on the first day, suggesting that the delayed and reduced cocaine-induced locomotor sensitization may reflect a hypoactive phenotype and probably not an altered response to repeated cocaine administrations. Unexpectedly, all female mice exhibited similar patterns of cocaine-induced behavioral sensitization. We then assessed the behavioral conditioning for an environment repeatedly paired with cocaine injections (15 mg/kg ip). All mice, whatever their gender or genotype, exhibited a robust preference for the environment previously paired with cocaine administrations. Noteworthy, following two weeks of cocaine abstinence, hypocretin-deficient males and females no longer exhibited any preference for the compartment previously paired with cocaine rewards whereas both WT and HET mice continued manifesting a robust preference. We finally assessed drinking behaviors in WT, HET and KO female mice using a novel paradigm, the IntelliCages®. We report here that KO females tended to less explore the four cage comers where water was easily available. When exposed to four different kinds of liquid solutions (water, ImM quinine or saccharine 0.2%, alcohol 8% and alcohol 16%), KO mice tended to less consume the sweet and the alcoholic beverages. However, after data standardization, no significant differences were noticed between genotypes suggesting that the hypoactive phenotype is most likely accountable for the trend regarding the reduced sweet or alcohol intake in KO.Taken together, the present findings confirm that the behavior seen in Hcrt KO mice likely reflects developmental compensations since only a slightly altered cocaine-induced behavioral sensitization and a normal behavioral conditioning with cocaine were observed in these mice compared to HET and WT littermates. With regards to drinking behaviors, KO mice barely displayed any behavioral changes but a trend for reducing sweet and alcoholic beverages. Overall, the most striking observation is the constant hypoactive phenotype seen in the hypocretin-deficient mice that most likely is accountable for their reduced tendency to explore the environment. Whether this hypoactive phenotype is due to a reduced alertness or reduced motivation for reward seeking remains debatable, but our findings suggest that the hypocretin-deficient mice barely display any altered motivation for reward seeking in environments where low efforts are required to access to a reward.
Resumo:
Il ressort que de l'avis largement majoritaire de tous les acteurs, institutions comme médecins privés, les soins palliatifs se sont améliorés dans le canton au cours des dix dernières années. Ce bilan positif est également confirmé par la comparaison des données qui avaient été recueillies en 2000 lors de la phase d'organisation des soins palliatifs dans le canton de Vaud. Trois éléments-clé sont évoqués comme cause de cette amélioration: les équipes mobiles en soins palliatifs (EMSP), les personnes-ressource et les formations en soins palliatifs . Cependant, des lacunes demeurent dans les institutions concernant, par exemple, l'inscription d'une définition des soins palliatifs dans les chartes institutionnelles ainsi que les différences observées entre les divers secteurs de soins et l'augmentation des déclarations de ressources inadéquates ou insuffisantes pour les soins palliatifs en comparaison à 2000. Les médecins quant à eux sont nombreux à faire part de leur difficulté à trouver le temps nécessaire à une formation spécifique mais aussi à faire reconnaître celui que requiert la coordination dans une prise en charge comprenant des soins palliatifs.
Resumo:
A l'occasion d'une intervention en santé au travail au siège d'une ONG humanitaire, nous avons constaté la présence d'une souffrance au travail importante parmi le personnel. Nous avons alors effectué une recherche sur l'organisation du travail et l'activité des employés dans le but de proposer des pistes de compréhension de cette souffrance. Nous avons collecté des données à l'aide d'un questionnaire, de 20 entretiens semi-directifs et de 26 jours d'observation non-participante. Nous avons mis en évidence un type de fonctionnement spécifique s'articulant en permanence autour de l'urgence. Celui-ci se nourrit de la nature des interventions de cette ONG ainsi que de la très forte valorisation des activités liées aux missions sur les terrains : tout se passe comme si le mode d'intervention " en situation d'urgence ", propre aux activités du terrain, contaminait l'organisation du travail au niveau du siège. Les employés sont pris dans un rythme effréné, ce qui les empêche de rester attentif à l'importance des tâches et de discriminer entre ce qui relève de " vraies " urgences et d'urgences " fantasmées ". Ceci génère un environnement potentiellement pathogène, où il est d'une part peu légitime de se préoccuper de sa propre santé et où d'autre part la charge de travail et le rythme ne laissent pas le temps à l'employé de mettre en place des stratégies de préservation de sa santé. [Auteures]
Resumo:
Summary: Amphibians are among the most vulnerable animals of the world. One third of all species are currently threatened with extinction. Habitat loss is the major menace to pond- and stream-breeding species in the old world. In highly urbanized landscape like the Swiss Plateau, most species suffer from habitat reduction and fragmentation. Among all indigenous species, the European tree frog (Hyla arborea L., 1758) is one of the most endangered. It experienced an alarming decline during the last century and its regional long-term persistence is not guaranteed. We developed a monitoring framework based on calling male counts which included multiple visits to each wetland during the reproduction period in order to precisely determine its distribution on the Lemanic coast. Our results indicate that visiting populations 3 limes under suitable climatic conditions (temperature >20°C) provides reliable presence/absence data. Based on our monitoring data, we analyzed the species requirements regarding its breeding habitat. It appeared that anthropogenic activities had paradoxical effects on the species. On one hand, urbanization, traffic and intensive agriculture had a strong detrimental effect on tree frog distribution. On the other hand, large tree frog populations were frequently associated with gravel pits and military training grounds. Our results allowed us to create a habitat suitability map taking into account detrimental landscape elements around ponds (>1100m away from urban areas and >500m away from first class roads). In parallel, we developed a metapopulation model of the European tree frog in order to identify the critical threats to the long term persistence of the species. Our results indicated that suitable pond density is at the low end of the species requirements. Pond creation must therefore be considered an essential complementary approach to pond conservation and restoration. Our model also provided a mapping solution permitting the location of the must suitable area for pond creation from a metapopulation perspective. As many other amphibians, the European tree frog is not only exposed to an aquatic habitat (breeding and larval period), but also to a terrestrial stage (summer and overwintering habitats). Unfortunately, animals in their terrestrial phase are less conspicuous and, as a consequence, their terrestrial needs are relatively unknown. Using a recent tracking method (the Harmonic Direction Finder), we followed post-breeding frogs and identified favored terrestrial habitats, thus providing another practical conservation tool. We conclude that only the combination of multiple spatially explicit approaches (landscape-scale habitat suitability, metapopulation dynamics and terrestrial needs) is likely to provide wildlife managers with effective tools for the conservation of highly endangered amphibians. Résumé: Les amphibiens font partie des animaux les plus vulnérables du monde. Un tiers des espèces est actuellement menacé d'extinction. Dans l'ancien monde, la disparition des habitats constitue la principale menace pour les grenouilles, crapauds, tritons et salamandres. Dans les paysages fortement urbanisés comme le Plateau Suisse, la plupart des espèces souffrent d'une réduction et d'une fragmentation de leurs habitats. Parmi toutes les espèces indigènes, la rainette verte (Hyla arborea L., 1758) est l'une des plus menacée. Sa distribution a régressé de manière alarmante durant le siècle passé et sa survie régionale à long terme n'est pas assurée. Nous avons développé une méthode de suivi des populations se basant sur le comptage des mâles chanteurs durant la période de reproduction. Cette méthode requiert plusieurs visites à chaque plan d'eau de manière à déterminer précisément la distribution de l'espèce. Nos résultats démontrent que 3 visites par population dans des conditions climatiques favorable (température >20°C) permettent d'obtenir des données de présence/ absence valables. Sur la base de nos comptages sur la Côte lémanique, nous avons analysé les exigences de l'espèce concernant ses sites de reproduction. Il est apparu que les activités humaines avaient un effet paradoxal sur l'espèce. D'une part, l'urbanisation, le trafic routier et l'intensification de l'agriculture ont un effet fortement préjudiciable, tandis que d'autre part les plus grandes populations sont souvent associées à des gravières et autres places d'armes. Nos résultats ont permis de créer une carte de qualité d'habitat prenant en compte les éléments paysagers préjudiciables à la rainette (situé à plus de 1100m de zones urbaines et à plus de 500m de routes de première classe). En parallèle, nous avons développé un modèle métapopulationnel (incluant l'ensemble des populations) de manière à identifier les menaces prépondérantes sur la survie à long terme de l'espèce. Nos résultats ont permis de déterminer que la densité actuelle de plans d'eau adéquats est à la limite inférieure des exigences de l'espèce. La création d'étangs doit donc être considérée comme une approche indispensable et complémentaire à la protection et à la restauration des sites existants. Notre modèle a également fourni des résultats cartographiables permettant l'identification des sites les plus appropriés dans une perspective métapopulationnelle. Comme de nombreux autres amphibiens, la rainette verte est exposée à un habitat aquatique (reproduction et développement larvaire) ainsi qu'à un habitat terrestre (été et hiver). Les animaux étant particulièrement cryptiques dans cette seconde phase, leurs besoins terrestres sont relativement mal connus. Nous avons donc développé une nouvelle méthode de télémétrie basée sur le goniomètre harmonique. Cette méthode nous a permis de suivre des rainettes dans leurs migrations jusqu'à leurs habitats d'été et d'établir ainsi des recommandations pratiques pour la conservation de la rainette. Nous concluons que la combinaison de multiples approches spatialement explicites (qualité d'habitat, dynamique de métapopulation et habitats terrestres) est seule à même de produire des outils efficaces pour la conservation des espèces menacées d'amphibiens.
Resumo:
Résumé Ce travail s'inscrit dans un programme de recherche centré sur la pharmacovigilance en psychiatrie. Buts de l'étude Les nouveaux antipsychotiques atypiques sont prescrits avec beaucoup de succès, parce qu'ils présentent une sécurité dans leur emploi bien supérieure à celle des antipsychotiques classiques. Cette situation a conduit à une large prescription «off-label» (hors indication admise). Le but de ce travail a été d'étudier la pratique en matière de prescription des psychiatres hospitaliers en ce qui concerne les antipsychotiques en comparant des patients traités pour des psychoses ou d'autres indications officielles aux patients recevant un traitement antipsychotique «off-label». Méthode Dans le cadre d'un programme de pharmacovigilance - pharmacoépidemiologie, tous les médicaments prescrits à 5 jours de référence (entre 1999 et 2001) à l'hôpital psychiatrique universitaire de Lausanne (98 lits) ont été enregistrés, avec des données sur l'âge, le sexe et le diagnostic des patients. Les prescriptions de 202 patients ont été évaluées. Les patients ont été classés dans 3 groupes diagnostiques : (1) patient présentant des troubles psychotiques, (2) patient présentant des épisodes maniaques et des épisodes dépressifs avec des symptômes psychotiques, et (3) patient présentant d'autres troubles. Les groupes (1) et (2) forment une classe de patients recevant un antipsychotique pour une indication officielle, et les prescriptions dans le groupe (3) ont été considérées comme «off-label». Résultats principaux Moins de patients psychotiques ont reçu un antidépresseur (p<0.05) ou des hypnotiques non-benzodiazepine (p<0.001) comparés aux patients des deux autres groupes. Les patients présentant des troubles affectifs recevaient seulement exceptionnellement une combinaison d'un antipsychotique atypique et conventionnel, tandis qu'un nombre inférieur de patients avec des indications « off-label » ont reçu moins .souvent des antipsychotiques atypiques que ceux des deux groupes de comparaison (p<0.05). L'analyse statistique (stepwise logistic regression) a révélé que les patients présentant des troubles psychotiques avaient un risque plus élevé de recevoir un médicament antipsychotique d'une dose moyenne ou élevée, (p<0.001) en comparaison aux deux autres groupes. Conclusion Les nouveaux médicaments antipsychotiques semblent être prescrits avec moins d'hésitation principalement pour des indications admises. Les médecins prescrivent de nouveaux médicaments « off-label » seulement après avoir acquis une certaine expérience dans le domaine des indications approuvées, et ils étaient plus prudents en ce qui concerne la dose en traitant sur la base «off-label». Abstract Objective The new brands of atypical antipsychotics are very successfully prescribed because of their enhanced safety profiles and their larger pharmacological profile in comparison to the conventional antipsychotic. This has led to broad off-label utilisation. The aim of the present survey was to study the prescription practice of hospital psychiatrists with regard to antipsychotic drugs, comparing patients treated for psychoses or other registered indications to patients receiving an off-label antipsychotic treatment. Method As part of a pharmacovigilance/pharmacoepidemiology program, all drugs given on 5 reference days (1999 - 2001) in the 98-bed psychiatric hospital of the University of Lausanne, Switzerland, were recorded along with age, sex and diagnosis. The prescriptions of 202 patients were assessed. Patients were classified in 3 diagnostic groups: (1) patient with psychotic disorders, (2) patients with manic episodes and depressive episodes with psychotic symptoms, and (3) patients with other disorders. Group (1) and (2) formed the class of patients receiving an antipsychotic for a registered indication, and the prescriptions in group (3) were considered as off-label. Main results A lesser number of psychotic patients received antidepressant (p<0.05) and nonbenzodiazepine hypnotics (p<0.001) compared to the patients of the other two groups. The patients with affective disorders received only exceptionally a combination of an atypical and a conventional antipsychotic, whereas a lesser number of patients with off-label indications received less often atypical antipsychotics than those of the two comparison groups (p<0.05). Stepwise logistic regression revealed that patients with psychotic disorder were at higher risk of receiving an antipsychotic medication in medium or high dose (p<0.001), in comparison to the two other groups. Conclusions The new antipsychotic drugs seem to be prescribed with less hesitation mainly for approved indications. Physicians prescribe new drugs on off-label application only after having gained some experience in the field of the approved indications, and were more cautious with regard to dose when treating on an off-label basis.
Resumo:
Recently, the introduction of second generation sequencing and further advance-ments in confocal microscopy have enabled system-level studies for the functional characterization of genes. The degree of complexity intrinsic to these approaches needs the development of bioinformatics methodologies and computational models for extracting meaningful biological knowledge from the enormous amount of experi¬mental data which is continuously generated. This PhD thesis presents several novel bioinformatics methods and computational models to address specific biological questions in Plant Biology by using the plant Arabidopsis thaliana as a model system. First, a spatio-temporal qualitative analysis of quantitative transcript and protein profiles is applied to show the role of the BREVIS RADIX (BRX) protein in the auxin- cytokinin crosstalk for root meristem growth. Core of this PhD work is the functional characterization of the interplay between the BRX protein and the plant hormone auxin in the root meristem by using a computational model based on experimental evidence. Hyphotesis generated by the modelled to the discovery of a differential endocytosis pattern in the root meristem that splits the auxin transcriptional response via the plasma membrane to nucleus partitioning of BRX. This positional information system creates an auxin transcriptional pattern that deviates from the canonical auxin response and is necessary to sustain the expression of a subset of BRX-dependent auxin-responsive genes to drive root meristem growth. In the second part of this PhD thesis, we characterized the genome-wide impact of large scale deletions on four divergent Arabidopsis natural strains, through the integration of Ultra-High Throughput Sequencing data with data from genomic hybridizations on tiling arrays. Analysis of the identified deletions revealed a considerable portion of protein coding genes affected and supported a history of genomic rearrangements shaped by evolution. In the last part of the thesis, we showed that VIP3 gene in Arabidopsis has an evo-lutionary conserved role in the 3' to 5' mRNA degradation machinery, by applying a novel approach for the analysis of mRNA-Seq data from random-primed mRNA. Altogether, this PhD research contains major advancements in the study of natural genomic variation in plants and in the application of computational morphodynamics models for the functional characterization of biological pathways essential for the plant. - Récemment, l'introduction du séquençage de seconde génération et les avancées dans la microscopie confocale ont permis des études à l'échelle des différents systèmes cellulaires pour la caractérisation fonctionnelle de gènes. Le degrés de complexité intrinsèque à ces approches ont requis le développement de méthodologies bioinformatiques et de modèles mathématiques afin d'extraire de la masse de données expérimentale générée, des information biologiques significatives. Ce doctorat présente à la fois des méthodes bioinformatiques originales et des modèles mathématiques pour répondre à certaines questions spécifiques de Biologie Végétale en utilisant la plante Arabidopsis thaliana comme modèle. Premièrement, une analyse qualitative spatio-temporelle de profiles quantitatifs de transcripts et de protéines est utilisée pour montrer le rôle de la protéine BREVIS RADIX (BRX) dans le dialogue entre l'auxine et les cytokinines, des phytohormones, dans la croissance du méristème racinaire. Le noyau de ce travail de thèse est la caractérisation fonctionnelle de l'interaction entre la protéine BRX et la phytohormone auxine dans le méristème de la racine en utilisant des modèles informatiques basés sur des preuves expérimentales. Les hypothèses produites par le modèle ont mené à la découverte d'un schéma différentiel d'endocytose dans le méristème racinaire qui divise la réponse transcriptionnelle à l'auxine par le partitionnement de BRX de la membrane plasmique au noyau de la cellule. Cette information positionnelle crée une réponse transcriptionnelle à l'auxine qui dévie de la réponse canonique à l'auxine et est nécessaire pour soutenir l'expression d'un sous ensemble de gènes répondant à l'auxine et dépendant de BRX pour conduire la croissance du méristème. Dans la seconde partie de cette thèse de doctorat, nous avons caractérisé l'impact sur l'ensemble du génome des délétions à grande échelle sur quatre souches divergentes naturelles d'Arabidopsis, à travers l'intégration du séquençage à ultra-haut-débit avec l'hybridation génomique sur puces ADN. L'analyse des délétions identifiées a révélé qu'une proportion considérable de gènes codant était affectée, supportant l'idée d'un historique de réarrangement génomique modelé durant l'évolution. Dans la dernière partie de cette thèse, nous avons montré que le gène VÏP3 dans Arabidopsis a conservé un rôle évolutif dans la machinerie de dégradation des ARNm dans le sens 3' à 5', en appliquant une nouvelle approche pour l'analyse des données de séquençage d'ARNm issue de transcripts amplifiés aléatoirement. Dans son ensemble, cette recherche de doctorat contient des avancées majeures dans l'étude des variations génomiques naturelles des plantes et dans l'application de modèles morphodynamiques informatiques pour la caractérisation de réseaux biologiques essentiels à la plante. - Le développement des plantes est écrit dans leurs codes génétiques. Pour comprendre comment les plantes sont capables de s'adapter aux changements environnementaux, il est essentiel d'étudier comment leurs gènes gouvernent leur formation. Plus nous essayons de comprendre le fonctionnement d'une plante, plus nous réalisons la complexité des mécanismes biologiques, à tel point que l'utilisation d'outils et de modèles mathématiques devient indispensable. Dans ce travail, avec l'utilisation de la plante modèle Arabidopsis thalicinci nous avons résolu des problèmes biologiques spécifiques à travers le développement et l'application de méthodes informatiques concrètes. Dans un premier temps, nous avons investigué comment le gène BREVIS RADIX (BRX) régule le développement de la racine en contrôlant la réponse à deux hormones : l'auxine et la cytokinine. Nous avons employé une analyse statistique sur des mesures quantitatives de transcripts et de produits de gènes afin de démontrer que BRX joue un rôle antagonisant dans le dialogue entre ces deux hormones. Lorsque ce-dialogue moléculaire est perturbé, la racine primaire voit sa longueur dramatiquement réduite. Pour comprendre comment BRX répond à l'auxine, nous avons développé un modèle informatique basé sur des résultats expérimentaux. Les simulations successives ont mené à la découverte d'un signal positionnel qui contrôle la réponse de la racine à l'auxine par la régulation du mouvement intracellulaire de BRX. Dans la seconde partie de cette thèse, nous avons analysé le génome entier de quatre souches naturelles d'Arabidopsis et nous avons trouvé qu'une grande partie de leurs gènes étaient manquant par rapport à la souche de référence. Ce résultat indique que l'historique des modifications génomiques conduites par l'évolution détermine une disponibilité différentielle des gènes fonctionnels dans ces plantes. Dans la dernière partie de ce travail, nous avons analysé les données du transcriptome de la plante où le gène VIP3 était non fonctionnel. Ceci nous a permis de découvrir le rôle double de VIP3 dans la régulation de l'initiation de la transcription et dans la dégradation des transcripts. Ce rôle double n'avait jusqu'alors été démontrée que chez l'homme. Ce travail de doctorat supporte le développement et l'application de méthodologies informatiques comme outils inestimables pour résoudre la complexité des problèmes biologiques dans la recherche végétale. L'intégration de la biologie végétale et l'informatique est devenue de plus en plus importante pour l'avancée de nos connaissances sur le fonctionnement et le développement des plantes.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.