998 resultados para contexte institutionnel
Resumo:
Rapport de synthèse: Enjeux de la recherche : La pneumonie communautaire chez l'enfant est un problème de santé publique considérable. Elle est responsable de 2 millions de mort par année, 70% survenant dans les pays en voie de développement. Sous nos latitudes son incidence est de 40/1000 enfants par année, ce qui représente une morbidité importante. Deux difficultés surviennent lorsqu'on cherche à diagnostiquer une pneumonie. La première est de distinguer une pneumonie bactérienne d'une virale, particulièrement chez les petits enfants où les infections virales des voies respiratoires inférieures sont fréquentes. L'OMS a définit la pneumonie selon des critères exclusivement cliniques et une étude effectuée à Lausanne en 2000 a montré que ces critères peuvent être utilisés dans nos contrées. La seconde difficulté est de définir l'agent causal de la pneumonie, ceci pour plusieurs raisons : L'aspiration endotrachéale, seul examen fiable, ne peut être obtenue de routine chez l'enfant vu son caractère invasif, la culture des secrétions nasopharyngées reflète la flore physiologique de la sphère ORL et une bactériémie n'est présente que dans moins de 10% des pneumonies. L'étiologie de la pneumonie reste souvent inconnue, et de ce fait plusieurs enfants reçoivent des antibiotiques pour une infection non bactérienne ce qui contribue au développement de résistances. L'objectif de cette étude était d'effectuer une recherche extensive de l'agent causal de la pneumonie et de déterminer quels facteurs pourraient aider le clinicien à différencier une pneumonie virale de bactérienne, en corrélant l'étiologie avec la sévérité clinique et les marqueurs de l'inflammation. Contexte de la recherche : II s'agissait d'une étude prospective, multicentrique, incluant les enfants âgés de 2 mois à 5 ans hospitalisés pour une pneumonie, selon les critères de l'OMS, dans le service de pédiatrie de Lausanne et Genève entre mars 2003 et Décembre 2005, avant l'implantation de la vaccination antipneumococcique de routine. Chaque enfant, en plus des examens usuels, bénéficiait d'une recherche étiologique extensive : Culture virale et bactérienne, PCR (Mycoplasma Pneumoniae, Chlamydia Pneumoniae, Virus Influenza A et B, RSV A et B, Rhinovirus, Parainfluenza 1-3, enterovirus, human metapneumovirus, coronavirus OC43, E229 ; et NL 63) et détection d'AG viraux dans les sécrétions nasopharyngées ; sérologies virales et bactériennes à l'entrée et 3 semaines après la sortie (AG Influenza A et B, Parainfluenza 1,2 et 3, RSV, Adenovirus, M.Pneumoniae et S.Pneumoniae). Conclusions : Un agent pathogène a été découvert chez 86% des 99 patients retenus confirmant le fait que plus la recherche étiologique est étendue plus le pourcentage d'agent causal trouvé est élevé. Une infection bactérienne a été découverte chez 53% des patients dont 45% avaient une infection à S. Pneumoniae confirmant l'importance d'une vaccination antipneumococcique de routine. La déshydratation et les marqueurs de l'inflammation tels que la C-Reactive Protein et la Procalcitonine étaient significativement plus élevés dans les pneumonies bactériennes. Aucune corrélation n'a été trouvée entre le degré de sévérité de la pneumonie et l'étiologie. L'étude a confirmé la haute prévalence d'infections virales (67%) et de co-infection (33%) dans la pneumonie de l'enfant sans que l'on connaisse le rôle réel du virus dans la pathogenèse de la pneumonie. Perspectives : d'autres études à la suite de celle-ci devraient être effectuées en incluant les patients ambulatoires afin de déterminer, avec un collectif plus large de patient, une éventuelle corrélation entre sévérité clinique et étiologie. Abstract : Community-acquired pneumonia (CAP) is a major cause of death in developing countries and of morbidity in developed countries. The objective of the study was to define the causative agents among children hospitalized for CAP defined by WHO guidelines and to correlate etiology with clinical severity and surrogate markers. Investigations included an extensive etiological workup. A potential causative agent was detected in 86% of the 99 enrolled patients, with evidence of bacterial (53%), viral (67%), and mixed (33%) infections. Streptococcus pneumoniae was accounted for in 46% of CAP. Dehydration was the only clinical sign associated with bacterial pneumonia. CRP and PCT were significantly higher in bacterial infections. Increasing the number of diagnostic tests identifies potential causes of CAP in up to 86% of children, indicating a high prevalence of viruses and frequent co-infections. The high proportion of pneumococcal infections re-emphasizes the importance of pneumococcal immunization.
Resumo:
Résumé: L'évaluation de l'exposition aux nuisances professionnelles représente une étape importante dans l'analyse de poste de travail. Les mesures directes sont rarement utilisées sur les lieux même du travail et l'exposition est souvent estimée sur base de jugements d'experts. Il y a donc un besoin important de développer des outils simples et transparents, qui puissent aider les spécialistes en hygiène industrielle dans leur prise de décision quant aux niveaux d'exposition. L'objectif de cette recherche est de développer et d'améliorer les outils de modélisation destinés à prévoir l'exposition. Dans un premier temps, une enquête a été entreprise en Suisse parmi les hygiénistes du travail afin d'identifier les besoins (types des résultats, de modèles et de paramètres observables potentiels). Il a été constaté que les modèles d'exposition ne sont guère employés dans la pratique en Suisse, l'exposition étant principalement estimée sur la base de l'expérience de l'expert. De plus, l'émissions de polluants ainsi que leur dispersion autour de la source ont été considérés comme des paramètres fondamentaux. Pour tester la flexibilité et la précision des modèles d'exposition classiques, des expériences de modélisations ont été effectuées dans des situations concrètes. En particulier, des modèles prédictifs ont été utilisés pour évaluer l'exposition professionnelle au monoxyde de carbone et la comparer aux niveaux d'exposition répertoriés dans la littérature pour des situations similaires. De même, l'exposition aux sprays imperméabilisants a été appréciée dans le contexte d'une étude épidémiologique sur une cohorte suisse. Dans ce cas, certains expériences ont été entreprises pour caractériser le taux de d'émission des sprays imperméabilisants. Ensuite un modèle classique à deux-zone a été employé pour évaluer la dispersion d'aérosol dans le champ proche et lointain pendant l'activité de sprayage. D'autres expériences ont également été effectuées pour acquérir une meilleure compréhension des processus d'émission et de dispersion d'un traceur, en se concentrant sur la caractérisation de l'exposition du champ proche. Un design expérimental a été développé pour effectuer des mesures simultanées dans plusieurs points d'une cabine d'exposition, par des instruments à lecture directe. Il a été constaté que d'un point de vue statistique, la théorie basée sur les compartiments est sensée, bien que l'attribution à un compartiment donné ne pourrait pas se faire sur la base des simples considérations géométriques. Dans une étape suivante, des données expérimentales ont été collectées sur la base des observations faites dans environ 100 lieux de travail différents: des informations sur les déterminants observés ont été associées aux mesures d'exposition des informations sur les déterminants observés ont été associé. Ces différentes données ont été employées pour améliorer le modèle d'exposition à deux zones. Un outil a donc été développé pour inclure des déterminants spécifiques dans le choix du compartiment, renforçant ainsi la fiabilité des prévisions. Toutes ces investigations ont servi à améliorer notre compréhension des outils des modélisations ainsi que leurs limitations. L'intégration de déterminants mieux adaptés aux besoins des experts devrait les inciter à employer cet outil dans leur pratique. D'ailleurs, en augmentant la qualité des outils des modélisations, cette recherche permettra non seulement d'encourager leur utilisation systématique, mais elle pourra également améliorer l'évaluation de l'exposition basée sur les jugements d'experts et, par conséquent, la protection de la santé des travailleurs. Abstract Occupational exposure assessment is an important stage in the management of chemical exposures. Few direct measurements are carried out in workplaces, and exposures are often estimated based on expert judgements. There is therefore a major requirement for simple transparent tools to help occupational health specialists to define exposure levels. The aim of the present research is to develop and improve modelling tools in order to predict exposure levels. In a first step a survey was made among professionals to define their expectations about modelling tools (what types of results, models and potential observable parameters). It was found that models are rarely used in Switzerland and that exposures are mainly estimated from past experiences of the expert. Moreover chemical emissions and their dispersion near the source have also been considered as key parameters. Experimental and modelling studies were also performed in some specific cases in order to test the flexibility and drawbacks of existing tools. In particular, models were applied to assess professional exposure to CO for different situations and compared with the exposure levels found in the literature for similar situations. Further, exposure to waterproofing sprays was studied as part of an epidemiological study on a Swiss cohort. In this case, some laboratory investigation have been undertaken to characterize the waterproofing overspray emission rate. A classical two-zone model was used to assess the aerosol dispersion in the near and far field during spraying. Experiments were also carried out to better understand the processes of emission and dispersion for tracer compounds, focusing on the characterization of near field exposure. An experimental set-up has been developed to perform simultaneous measurements through direct reading instruments in several points. It was mainly found that from a statistical point of view, the compartmental theory makes sense but the attribution to a given compartment could ñó~be done by simple geometric consideration. In a further step the experimental data were completed by observations made in about 100 different workplaces, including exposure measurements and observation of predefined determinants. The various data obtained have been used to improve an existing twocompartment exposure model. A tool was developed to include specific determinants in the choice of the compartment, thus largely improving the reliability of the predictions. All these investigations helped improving our understanding of modelling tools and identify their limitations. The integration of more accessible determinants, which are in accordance with experts needs, may indeed enhance model application for field practice. Moreover, while increasing the quality of modelling tool, this research will not only encourage their systematic use, but might also improve the conditions in which the expert judgments take place, and therefore the workers `health protection.
Resumo:
Les débats politiques actuels en Allemagne autour de la jeunesse sont marqués par deux problèmes majeurs : un taux de chômage élevé qui indique les limites du système d'apprentissage et un faible taux de natalité qui appelle à une réorientation profonde des politiques familiales. Ces deux problèmes sont analysés à partir d'éléments historiques et factuels. Dans le domaine de l'emploi, il est difficile de déceler une politique spécifique destinée exclusivement à la jeunesse en Allemagne, car toutes les mesures ont pour objectif de permettre aux personnes en difficultés d'obtenir un diplôme scolaire et/ou une formation professionnelle. En revanche, les jeunes d'origine étrangère sont moins qualifiés et rencontrent des difficultés d'insertion sur le marché de travail, ce qui a poussé le gouvernement à développer un grand nombre de mesures spécifiques. D'un autre côté, l'Allemagne présente un très faible niveau de diplômés de l'enseignement supérieur. Ce groupe est presque épargné par les problèmes de chômage. Face aux graves problèmes démographiques qui s'annoncent, l'Allemagne repense les politiques publiques en faveur de la famille, de la jeunesse et de la solidarité entre les générations. Les nouvelles mesures proposées par la ministre de la Famille (une allocation pour les parents d'enfants ayant entre 12 et 14 mois, et la création d'ici à 2013 de nouvelles places en crèche permettant de garder un tiers des enfants) se heurtent à des méfiances anciennes vis-à-vis de l'État. Finalement, les rapports entre les générations sont repensés par la création de lieux de vie communs qui sont un moyen de faire face à la modification des structures familiales et au surnombre de personnes âgées. Dans une première partie, les nouvelles mesures d'orientation destinées aux jeunes en difficulté sont analysées dans le contexte du marché de travail. La seconde partie est consacrée à une analyse des nouveaux dispositifs des politiques familiales.
Resumo:
Quand on parle de l'acide lactique (aussi connu sous le nom de lactate) une des premières choses qui vient à l'esprit, c'est son implication en cas d'intense activité musculaire. Sa production pendant une activité physique prolongée est associée avec la sensation de fatigue. Il n'est donc pas étonnant que cette molécule ait été longtemps considérée comme un résidu du métabolisme, possiblement toxique et donc à éliminer. En fait, il a été découvert que le lactate joue un rôle prépondérant dans le métabolisme grâce à son fort potentiel énergétique. Le cerveau, en particulier les neurones qui le composent, est un organe très gourmand en énergie. Récemment, il a été démontré que les astrocytes, cellules du cerveau faisant partie de la famille des cellules gliales, utilisent le glucose pour produire du lactate comme source d'énergie et le distribue aux neurones de manière adaptée à leur activité. Cette découverte a renouvelé l'intérêt scientifique pour le lactate. Aujourd'hui, plusieurs études ont démontré l'implication du lactate dans d'autres fonctions de la physiologie cérébrale. Dans le cadre de notre étude, nous nous sommes intéressés au rapport entre neurones et astrocytes avec une attention particulière pour le rôle du lactate. Nous avons découvert que le lactate possède la capacité de modifier la communication entre les neurones. Nous avons aussi décrypté le mécanisme grâce auquel le lactate agit, qui est basé sur un récepteur présent à la surface des neurones. Cette étude montre une fonction jusque-là insoupçonnée du lactate qui a un fort impact sur la compréhension de la relation entre neurones et astrocytes. - Relatively to its volume, the brain uses a large amount of glucose as energy source. Furthermore, a tight link exists between the level of synaptic activity and the consumption of energy equivalents. Astrocytes have been shown to play a central role in the regulation of this so-called neurometabolic coupling. They are thought to deliver the metabolic substrate lactate to neurons in register to glutamatergic activity. The astrocytic uptake of glutamate, released in the synaptic cleft, is the trigger signal that activates an intracellular cascade of events that leads to the production and release of lactate from astrocytes. The main goal of this thesis work was to obtain detailed information on the metabolic and functional interplay between neurons and astrocytes, in particular on the influence of lactate besides its metabolic effects. To gain access to both spatial and temporal aspects of these dynamic interactions, we used optical microscopy associated with specific fluorescent indicators, as well as electrophysiology. In the first part of this thesis, we show that lactate decreases spontaneous neuronal, activity in a concentration-dependent manner and independently of its metabolism. We further identified a receptor-mediated pathway underlying this modulatory action of lactate. This finding constituted a novel mechanism for the modulation of neuronal transmission by lactate. In the second part, we have undergone a characterization of a new pharmacological tool, a high affinity glutamate transporter inhibitor. The finality of this study was to investigate the detailed pharmacological properties of the compound to optimize its use as a suppressor of glutamate signal from neuron to astrocytes. In conclusion, both studies have implications not only for the understanding of the metabolic cooperation between neurons and astrocytes, but also in the context of the glial modulation of neuronal activity. - Par rapport à son volume, le cerveau utilise une quantité massive de glucose comme source d'énergie. De plus, la consommation d'équivalents énergétiques est étroitement liée au niveau d'activité synaptique. Il a été montré que dans ce couplage neurométabolique, un rôle central est joué par les astrocytes. Ces cellules fournissent le lactate, un substrat métabolique, aux neurones de manière adaptée à leur activité glutamatergique. Plus précisément, le glutamate libéré dans la fente synaptique par les neurones, est récupéré par les astrocytes et déclenche ainsi une cascade d'événements intracellulaires qui conduit à la production et libération de lactate. Les travaux de cette thèse ont visé à étudier la relation métabolique et fonctionnelle entre neurones et astrocytes, avec une attention particulière pour des rôles que pourrait avoir le lactate au-delà de sa fonction métabolique. Pour étudier les aspects spatio-temporels de ces interactions dynamiques, nous avons utilisé à la fois la microscopie optique associée à des indicateurs fluorescents spécifiques, ainsi que l'électrophysiologie. Dans la première partie de cette thèse, nous montrons que le lactate diminue l'activité neuronale spontanée de façon concentration-dépendante et indépendamment de son métabolisme. Nous avons identifié l'implication d'un récepteur neuronal au lactate qui sous-tend ce mécanisme de régulation. La découverte de cette signalisation via le lactate constitue un mode d'interaction supplémentaire et nouveau entre neurones et astrocytes. Dans la deuxième partie, nous avons caractérisé un outil pharmacologique, un inhibiteur des transporteurs du glutamate à haute affinité. Le but de cette étude était d'obtenir un agent pharmacologique capable d'interrompre spécifiquement le signal médié par le glutamate entre neurones et astrocytes pouvant permettre de mieux comprendre leur relation. En conclusion, ces études ont une implication non seulement pour la compréhension de la coopération entre neurones et astrocytes mais aussi dans le contexte de la modulation de l'activité neuronale par les cellules gliales.
Resumo:
RESUME Introduction : La prophylaxie du système nerveux central lors d'un diagnostic de leucémie lymphoblastique aiguë de l'enfant a permis de réduire le risque de rechute mais a été associée dans certains cas à des neurotoxicités cliniques ou des anomalies radiologiques. Des moyens de prédire ces neurotoxicités font défaut, en particulier en raison de l'absence de corrélation claire entre les signes cliniques et les images radiologiques. Quelques auteurs ont suggéré que les taux de protéine basique de la myéline (MBP) mesurés dans le liquide céphalo-rachidien pouvaient avoir un intérêt dans ce contexte. Uné étude rétrospective de ces taux en relation avec des données cliniques et radiologiques est présentée dans ce travail. Matériel et Méthodes : Les taux de MBP mesurés dans le liquide céphalo-rachidien lors d'administration de chimiothérapie intrathécale, les examens cliniques neurologiques et les rapports radiologiques ont été rétrospectivement étudiés chez nos patients. Les données concernant des difficultés académiques éventuelles, ainsi que le niveau académique atteint ont été récoltées par l'intermédiaire de contacts téléphoniques réguliers organisés dans le cadre du suivi à long terme de nos patients. Résultats : Un total de 1248 dosages de MBP chez 83 patients, 381 examens neurologiques chez 34 patients et 69 rapports d'investigations neuroradiologiques chez 27 patients ont été analysés. Cinquante-deux patients ont eut au moins un taux anormal de MBP. Des anomalies radiologiques ont été décrites chez 47% de ces patients, parmi lesquels 14% ont présenté des difficultés scolaires sous une forme ou sous une autre. La proportion de patients ayant présenté des difficultés scolaires dans les groupes avec taux de MBP normal mais sans anomalies radiologiques décrites ou sans investigations radiologiques étaient respectivement de 0% et 3%, inférieurs dans tous les cas au groupe avec des taux normaux de MBP (100%, 22% and 5% respectivement). Discussion : Tout en prenant en compte les limitations dues à l'aspect rétrospectif de cette étude, nous avons conclu à une utilité limitée de ces dosages systématiques comme indicateur d'une neurotoxicité induite parle traitement dans le contexte de nos patients oncologiques. ABSTRACT Introduction : Central nervous system (CSF) prophylaxis of childhood acute lymphoblastic leukemia has dropped rates of relapses but has been associated wíth neurotoxicity and imaging abnormalities. Predictors of neurotoxícity are lacking, because of inconsistency between clinical symptoms and imaging. Some have suggested CSF Myelin Basic Protein (MBP) levels to be of potential interest. A retrospective analysis of MBP levels in correlation with clinical and radiological data is presented. Materials and Methods : MBP levels obtained at the time of intrathecals, charts, and neuroradiology reports were retrospectively analyzed. Academic achievement data were obtained from phone contacts with patients and families. Results : We retrieved 1248 dosages of MBP in 83 patients, 381 neurological exams in 34 patients and 69 neuroradiological investigations in 27 patients. Fifty-two patients had abnormal MBP levels. Radiological anomalies were present in 47% of those investigated, 14% of them having school difficulties. Proportions of patients with school difficulties in the groups with abnormal MBP levels but no radiological anomalies or with no radiological investigations were 0% and 3% respectively, which was lower than in the group of patients with normal MBP levels (100%, 22% and 5% respectively). Discussion : Notwithstanding the retrospective character of our study, we conclude that there is limited usefulness of systematic dosage of MBP as indicator of treatment-induced neurotoxicity in ALL patients.
Resumo:
SUMMARYSpecies distribution models (SDMs) represent nowadays an essential tool in the research fields of ecology and conservation biology. By combining observations of species occurrence or abundance with information on the environmental characteristic of the observation sites, they can provide information on the ecology of species, predict their distributions across the landscape or extrapolate them to other spatial or time frames. The advent of SDMs, supported by geographic information systems (GIS), new developments in statistical models and constantly increasing computational capacities, has revolutionized the way ecologists can comprehend species distributions in their environment. SDMs have brought the tool that allows describing species realized niches across a multivariate environmental space and predict their spatial distribution. Predictions, in the form of probabilistic maps showing the potential distribution of the species, are an irreplaceable mean to inform every single unit of a territory about its biodiversity potential. SDMs and the corresponding spatial predictions can be used to plan conservation actions for particular species, to design field surveys, to assess the risks related to the spread of invasive species, to select reserve locations and design reserve networks, and ultimately, to forecast distributional changes according to scenarios of climate and/or land use change.By assessing the effect of several factors on model performance and on the accuracy of spatial predictions, this thesis aims at improving techniques and data available for distribution modelling and at providing the best possible information to conservation managers to support their decisions and action plans for the conservation of biodiversity in Switzerland and beyond. Several monitoring programs have been put in place from the national to the global scale, and different sources of data now exist and start to be available to researchers who want to model species distribution. However, because of the lack of means, data are often not gathered at an appropriate resolution, are sampled only over limited areas, are not spatially explicit or do not provide a sound biological information. A typical example of this is data on 'habitat' (sensu biota). Even though this is essential information for an effective conservation planning, it often has to be approximated from land use, the closest available information. Moreover, data are often not sampled according to an established sampling design, which can lead to biased samples and consequently to spurious modelling results. Understanding the sources of variability linked to the different phases of the modelling process and their importance is crucial in order to evaluate the final distribution maps that are to be used for conservation purposes.The research presented in this thesis was essentially conducted within the framework of the Landspot Project, a project supported by the Swiss National Science Foundation. The main goal of the project was to assess the possible contribution of pre-modelled 'habitat' units to model the distribution of animal species, in particular butterfly species, across Switzerland. While pursuing this goal, different aspects of data quality, sampling design and modelling process were addressed and improved, and implications for conservation discussed. The main 'habitat' units considered in this thesis are grassland and forest communities of natural and anthropogenic origin as defined in the typology of habitats for Switzerland. These communities are mainly defined at the phytosociological level of the alliance. For the time being, no comprehensive map of such communities is available at the national scale and at fine resolution. As a first step, it was therefore necessary to create distribution models and maps for these communities across Switzerland and thus to gather and collect the necessary data. In order to reach this first objective, several new developments were necessary such as the definition of expert models, the classification of the Swiss territory in environmental domains, the design of an environmentally stratified sampling of the target vegetation units across Switzerland, the development of a database integrating a decision-support system assisting in the classification of the relevés, and the downscaling of the land use/cover data from 100 m to 25 m resolution.The main contributions of this thesis to the discipline of species distribution modelling (SDM) are assembled in four main scientific papers. In the first, published in Journal of Riogeography different issues related to the modelling process itself are investigated. First is assessed the effect of five different stepwise selection methods on model performance, stability and parsimony, using data of the forest inventory of State of Vaud. In the same paper are also assessed: the effect of weighting absences to ensure a prevalence of 0.5 prior to model calibration; the effect of limiting absences beyond the environmental envelope defined by presences; four different methods for incorporating spatial autocorrelation; and finally, the effect of integrating predictor interactions. Results allowed to specifically enhance the GRASP tool (Generalized Regression Analysis and Spatial Predictions) that now incorporates new selection methods and the possibility of dealing with interactions among predictors as well as spatial autocorrelation. The contribution of different sources of remotely sensed information to species distribution models was also assessed. The second paper (to be submitted) explores the combined effects of sample size and data post-stratification on the accuracy of models using data on grassland distribution across Switzerland collected within the framework of the Landspot project and supplemented with other important vegetation databases. For the stratification of the data, different spatial frameworks were compared. In particular, environmental stratification by Swiss Environmental Domains was compared to geographical stratification either by biogeographic regions or political states (cantons). The third paper (to be submitted) assesses the contribution of pre- modelled vegetation communities to the modelling of fauna. It is a two-steps approach that combines the disciplines of community ecology and spatial ecology and integrates their corresponding concepts of habitat. First are modelled vegetation communities per se and then these 'habitat' units are used in order to model animal species habitat. A case study is presented with grassland communities and butterfly species. Different ways of integrating vegetation information in the models of butterfly distribution were also evaluated. Finally, a glimpse to climate change is given in the fourth paper, recently published in Ecological Modelling. This paper proposes a conceptual framework for analysing range shifts, namely a catalogue of the possible patterns of change in the distribution of a species along elevational or other environmental gradients and an improved quantitative methodology to identify and objectively describe these patterns. The methodology was developed using data from the Swiss national common breeding bird survey and the article presents results concerning the observed shifts in the elevational distribution of breeding birds in Switzerland.The overall objective of this thesis is to improve species distribution models as potential inputs for different conservation tools (e.g. red lists, ecological networks, risk assessment of the spread of invasive species, vulnerability assessment in the context of climate change). While no conservation issues or tools are directly tested in this thesis, the importance of the proposed improvements made in species distribution modelling is discussed in the context of the selection of reserve networks.RESUMELes modèles de distribution d'espèces (SDMs) représentent aujourd'hui un outil essentiel dans les domaines de recherche de l'écologie et de la biologie de la conservation. En combinant les observations de la présence des espèces ou de leur abondance avec des informations sur les caractéristiques environnementales des sites d'observation, ces modèles peuvent fournir des informations sur l'écologie des espèces, prédire leur distribution à travers le paysage ou l'extrapoler dans l'espace et le temps. Le déploiement des SDMs, soutenu par les systèmes d'information géographique (SIG), les nouveaux développements dans les modèles statistiques, ainsi que la constante augmentation des capacités de calcul, a révolutionné la façon dont les écologistes peuvent comprendre la distribution des espèces dans leur environnement. Les SDMs ont apporté l'outil qui permet de décrire la niche réalisée des espèces dans un espace environnemental multivarié et prédire leur distribution spatiale. Les prédictions, sous forme de carte probabilistes montrant la distribution potentielle de l'espèce, sont un moyen irremplaçable d'informer chaque unité du territoire de sa biodiversité potentielle. Les SDMs et les prédictions spatiales correspondantes peuvent être utilisés pour planifier des mesures de conservation pour des espèces particulières, pour concevoir des plans d'échantillonnage, pour évaluer les risques liés à la propagation d'espèces envahissantes, pour choisir l'emplacement de réserves et les mettre en réseau, et finalement, pour prévoir les changements de répartition en fonction de scénarios de changement climatique et/ou d'utilisation du sol. En évaluant l'effet de plusieurs facteurs sur la performance des modèles et sur la précision des prédictions spatiales, cette thèse vise à améliorer les techniques et les données disponibles pour la modélisation de la distribution des espèces et à fournir la meilleure information possible aux gestionnaires pour appuyer leurs décisions et leurs plans d'action pour la conservation de la biodiversité en Suisse et au-delà. Plusieurs programmes de surveillance ont été mis en place de l'échelle nationale à l'échelle globale, et différentes sources de données sont désormais disponibles pour les chercheurs qui veulent modéliser la distribution des espèces. Toutefois, en raison du manque de moyens, les données sont souvent collectées à une résolution inappropriée, sont échantillonnées sur des zones limitées, ne sont pas spatialement explicites ou ne fournissent pas une information écologique suffisante. Un exemple typique est fourni par les données sur 'l'habitat' (sensu biota). Même s'il s'agit d'une information essentielle pour des mesures de conservation efficaces, elle est souvent approximée par l'utilisation du sol, l'information qui s'en approche le plus. En outre, les données ne sont souvent pas échantillonnées selon un plan d'échantillonnage établi, ce qui biaise les échantillons et par conséquent les résultats de la modélisation. Comprendre les sources de variabilité liées aux différentes phases du processus de modélisation s'avère crucial afin d'évaluer l'utilisation des cartes de distribution prédites à des fins de conservation.La recherche présentée dans cette thèse a été essentiellement menée dans le cadre du projet Landspot, un projet soutenu par le Fond National Suisse pour la Recherche. L'objectif principal de ce projet était d'évaluer la contribution d'unités 'd'habitat' pré-modélisées pour modéliser la répartition des espèces animales, notamment de papillons, à travers la Suisse. Tout en poursuivant cet objectif, différents aspects touchant à la qualité des données, au plan d'échantillonnage et au processus de modélisation sont abordés et améliorés, et leurs implications pour la conservation des espèces discutées. Les principaux 'habitats' considérés dans cette thèse sont des communautés de prairie et de forêt d'origine naturelle et anthropique telles que définies dans la typologie des habitats de Suisse. Ces communautés sont principalement définies au niveau phytosociologique de l'alliance. Pour l'instant aucune carte de la distribution de ces communautés n'est disponible à l'échelle nationale et à résolution fine. Dans un premier temps, il a donc été nécessaire de créer des modèles de distribution de ces communautés à travers la Suisse et par conséquent de recueillir les données nécessaires. Afin d'atteindre ce premier objectif, plusieurs nouveaux développements ont été nécessaires, tels que la définition de modèles experts, la classification du territoire suisse en domaines environnementaux, la conception d'un échantillonnage environnementalement stratifié des unités de végétation cibles dans toute la Suisse, la création d'une base de données intégrant un système d'aide à la décision pour la classification des relevés, et le « downscaling » des données de couverture du sol de 100 m à 25 m de résolution. Les principales contributions de cette thèse à la discipline de la modélisation de la distribution d'espèces (SDM) sont rassemblées dans quatre articles scientifiques. Dans le premier article, publié dans le Journal of Biogeography, différentes questions liées au processus de modélisation sont étudiées en utilisant les données de l'inventaire forestier de l'Etat de Vaud. Tout d'abord sont évalués les effets de cinq méthodes de sélection pas-à-pas sur la performance, la stabilité et la parcimonie des modèles. Dans le même article sont également évalués: l'effet de la pondération des absences afin d'assurer une prévalence de 0.5 lors de la calibration du modèle; l'effet de limiter les absences au-delà de l'enveloppe définie par les présences; quatre méthodes différentes pour l'intégration de l'autocorrélation spatiale; et enfin, l'effet de l'intégration d'interactions entre facteurs. Les résultats présentés dans cet article ont permis d'améliorer l'outil GRASP qui intègre désonnais de nouvelles méthodes de sélection et la possibilité de traiter les interactions entre variables explicatives, ainsi que l'autocorrélation spatiale. La contribution de différentes sources de données issues de la télédétection a également été évaluée. Le deuxième article (en voie de soumission) explore les effets combinés de la taille de l'échantillon et de la post-stratification sur le la précision des modèles. Les données utilisées ici sont celles concernant la répartition des prairies de Suisse recueillies dans le cadre du projet Landspot et complétées par d'autres sources. Pour la stratification des données, différents cadres spatiaux ont été comparés. En particulier, la stratification environnementale par les domaines environnementaux de Suisse a été comparée à la stratification géographique par les régions biogéographiques ou par les cantons. Le troisième article (en voie de soumission) évalue la contribution de communautés végétales pré-modélisées à la modélisation de la faune. C'est une approche en deux étapes qui combine les disciplines de l'écologie des communautés et de l'écologie spatiale en intégrant leurs concepts de 'habitat' respectifs. Les communautés végétales sont modélisées d'abord, puis ces unités de 'habitat' sont utilisées pour modéliser les espèces animales. Une étude de cas est présentée avec des communautés prairiales et des espèces de papillons. Différentes façons d'intégrer l'information sur la végétation dans les modèles de répartition des papillons sont évaluées. Enfin, un clin d'oeil aux changements climatiques dans le dernier article, publié dans Ecological Modelling. Cet article propose un cadre conceptuel pour l'analyse des changements dans la distribution des espèces qui comprend notamment un catalogue des différentes formes possibles de changement le long d'un gradient d'élévation ou autre gradient environnemental, et une méthode quantitative améliorée pour identifier et décrire ces déplacements. Cette méthodologie a été développée en utilisant des données issues du monitoring des oiseaux nicheurs répandus et l'article présente les résultats concernant les déplacements observés dans la distribution altitudinale des oiseaux nicheurs en Suisse.L'objectif général de cette thèse est d'améliorer les modèles de distribution des espèces en tant que source d'information possible pour les différents outils de conservation (par exemple, listes rouges, réseaux écologiques, évaluation des risques de propagation d'espèces envahissantes, évaluation de la vulnérabilité des espèces dans le contexte de changement climatique). Bien que ces questions de conservation ne soient pas directement testées dans cette thèse, l'importance des améliorations proposées pour la modélisation de la distribution des espèces est discutée à la fin de ce travail dans le contexte de la sélection de réseaux de réserves.
Resumo:
CONTEXTE Les vasculites représentent un groupe de maladies inflammatoires touchant tous les vaisseaux, des grosses artères aux artères de plus petit calibre, en passant par les capillaires et les veines, de toutes tailles également. La taille des vaisseaux atteints est d'une importance cruciale pour le diagnostic puisque la classification actuelle en dépend. Sur le plan histopathologique, la vasculite est une réaction inflammatoire qui atteint la paroi de vaisseaux, et qui va entraîner alors une ischémie, puis une nécrose du vaisseau lui-‐ même voire des structures environnantes ; les caractéristiques microscopiques de ces lésions permettent souvent d'aider à préciser le groupe auquel appartient la vasculite. Cependant, il n'est pas toujours facile ni possible d'obtenir un échantillon de tissu, une biopsie, selon l'endroit concerné (cerveau, régions profondes et difficilement accessibles...). OBJECTIFS Dans les atteintes de type « vasculite », la peau est fréquemment un organe cible. Le grand avantage est son accès direct et aisé, notamment dans le but de pratiquer un examen histopathologique par le biais d'une biopsie, qui peut se pratiquer de manière superficielle ou profonde, révélant alors des vaisseaux de différents calibres. Face à un tableau clinique parfois complexe et menaçant, il est important de pouvoir orienter le diagnostic rapidement. L'objectif de ce travail est donc de déterminer quelles sont l'utilité et l'apport de la biopsie cutanée dans le diagnostic des vasculites, et autrement dit de déterminer s'il vaut la peine de pratiquer ce genre d'examen, ou s'il vaut mieux privilégier d'autres approches plus rentables sur ce plan-‐là. METHODES Grâce à l'aide des dermatologues et à la base de données du Service de dermatopathologie du CHUV, nous nous proposons de faire une étude rétrospective et systématique, sur les 5 années passées, de toutes les biopsies cutanées compatibles avec le diagnostic de vasculite. RESULTATS ESCOMPTES Ils sont de deux ordres : déterminer d'une part si le résultat de la biopsie était compatible avec le diagnostic clinique retenu chez les patients ayant subi ce type d'examen. Cela nous permettra alors d'établir des recommandations pour la réalisation éventuelle d'une biopsie cutanée dans ce type de situation. Il sera en effet capital de savoir si ce geste est utile et, le cas échéant, s'il faut demander une biopsie profonde ou si une biopsie superficielle est suffisante. Ce travail nous permettra d'autre part de revoir les caractéristiques cutanées -‐ sur le plan histopathologique -‐ des vasculites, et de déterminer aussi leur fréquence. Dans l'idéal, ce travail devrait permettre de faire la revue et la mise à jour des connaissances dans le domaine des vasculites cutanées, utiles aux praticiens notamment.
Resumo:
Rapport de synthèse: Enjeux et contexte de recherche : la coarctation de l'aorte, rétrécissement de l'aorte thoracique descendante, est une des malformations cardiaques congénitales les plus fréquentes. Son diagnostic reste cependant difficile surtout lorsqu'elle est associée à la présence d'un canal artériel ou à une malformation cardiaque plus complexe. Dans ces contextes, les signes échographiques classiques qui posent habituellement le diagnostic (visualisation d'un rétrécissement juxtaductal et accélération au Doppler au niveau de l'isthme aortique) peuvent faire défaut ou être difficile à imager. La validation d'index basé sur des mesures anatomiques faciles à acquérir par échographie cardiaque, indépendantes de l'âge, de la situation hémodynamique et des malformations cardiaques associées représente une aide significative dans le diagnostic de la coarctation de l'aorte. Nous avons donc voulu valider par une étude rétrospective la fiabilité de deux index dans cette indication : l'index des artères carotido-sous-clavière (index CSA; rapport du diamètre de l'arc aortique transverse distal sur la distance entre les artères carotide et sous-clavière gauches) et l'index de l'aorte isthmique-descendante (index I/D; rapport des diamètres de l'aorte isthmique sur celui de l'aorte descendante). Notre article : nous avons rétrospectivement calculé la valeur des deux index (CSA et I/D) chez un groupe de 68 enfants avec coarctation et un groupe 24 cas contrôles apparenté pour l'âge et le sexe. Les enfants avec coarctation ont un index CSA et I/D significativement plus bas que le groupe contrôle (Index CSA : 0.84 ± 0.39 vs. 2.65 ± 0.82, p<0.0001 - Index I/D : 0.58 ± 0.18 vs. 0.98 ± 0.19, p<0.0001). Pour les deux index, ni la présence d'une autre malformation cardiaque, ni l'âge n'ont un impact sur la différence significative entre les deux groupes. Conclusions: notre recherche à permis de valider qu'un index CSA de moins de 1,5 est fortement suggestif d'une coarctation, indépendamment de l'âge du patient et de la présence d'une autre malformation cardiaque. L'index I/D (valeur limite 0,64) est moins spécifique que l'index CSA. L'association des deux index augmente la sensibilité et permet rétrospectivement le diagnostic de tous les cas de coarctation seulement sur la base d'une échographie cardiaque standard faite au lit du patient. Perspectives : cette étude rétrospective mérite d'être vérifiée par une étude prospective afin de confirmer la contribution de ces index à la prise en charge des patients suspects d'une coarctation de l'aorte. Cependant, la situation dans laquelle ces index pourraient avoir le plus grand impact reste encore à explorer. En effet, si le diagnostic postnatal de la coarctation est parfois difficile, son diagnostic prénatal l'est nettement plus. La présence obligatoire du canal artériel et l'existence d'une hypoplasie isthmique physiologique chez le foetus obligent le cardiologue foetale à observer des signes indirects, peu sensibles, d'une possible coarctation (prépondérance des cavités droites). La validation de l'index CSA et/ou de l'index I/D chez le foetus constituerait donc une avancée majeure dans le diagnostic prénatal de la coarctation de l'aorte.
Resumo:
Résumé de la thèse L'évolution des systèmes policiers donne une place prépondérante à l'information et au renseignement. Cette transformation implique de développer et de maintenir un ensemble de processus permanent d'analyse de la criminalité, en particulier pour traiter des événements répétitifs ou graves. Dans une organisation aux ressources limitées, le temps consacré au recueil des données, à leur codification et intégration, diminue le temps disponible pour l'analyse et la diffusion de renseignements. Les phases de collecte et d'intégration restent néanmoins indispensables, l'analyse n'étant pas possible sur des données volumineuses n'ayant aucune structure. Jusqu'à présent, ces problématiques d'analyse ont été abordées par des approches essentiellement spécialisées (calculs de hot-sports, data mining, ...) ou dirigées par un seul axe (par exemple, les sciences comportementales). Cette recherche s'inscrit sous un angle différent, une démarche interdisciplinaire a été adoptée. L'augmentation continuelle de la quantité de données à analyser tend à diminuer la capacité d'analyse des informations à disposition. Un bon découpage (classification) des problèmes rencontrés permet de délimiter les analyses sur des données pertinentes. Ces classes sont essentielles pour structurer la mémoire du système d'analyse. Les statistiques policières de la criminalité devraient déjà avoir répondu à ces questions de découpage de la délinquance (classification juridique). Cette décomposition a été comparée aux besoins d'un système de suivi permanent dans la criminalité. La recherche confirme que nos efforts pour comprendre la nature et la répartition du crime se butent à un obstacle, à savoir que la définition juridique des formes de criminalité n'est pas adaptée à son analyse, à son étude. Depuis près de vingt ans, les corps de police de Suisse romande utilisent et développent un système de classification basé sur l'expérience policière (découpage par phénomène). Cette recherche propose d'interpréter ce système dans le cadre des approches situationnelles (approche théorique) et de le confronter aux données « statistiques » disponibles pour vérifier sa capacité à distinguer les formes de criminalité. La recherche se limite aux cambriolages d'habitations, un délit répétitif fréquent. La théorie des opportunités soutien qu'il faut réunir dans le temps et dans l'espace au minimum les trois facteurs suivants : un délinquant potentiel, une cible intéressante et l'absence de gardien capable de prévenir ou d'empêcher le passage à l'acte. Ainsi, le délit n'est possible que dans certaines circonstances, c'est-à-dire dans un contexte bien précis. Identifier ces contextes permet catégoriser la criminalité. Chaque cas est unique, mais un groupe de cas montre des similitudes. Par exemple, certaines conditions avec certains environnements attirent certains types de cambrioleurs. Deux hypothèses ont été testées. La première est que les cambriolages d'habitations ne se répartissent pas uniformément dans les classes formées par des « paramètres situationnels » ; la deuxième que des niches apparaissent en recoupant les différents paramètres et qu'elles correspondent à la classification mise en place par la coordination judiciaire vaudoise et le CICOP. La base de données vaudoise des cambriolages enregistrés entre 1997 et 2006 par la police a été utilisée (25'369 cas). Des situations spécifiques ont été mises en évidence, elles correspondent aux classes définies empiriquement. Dans une deuxième phase, le lien entre une situation spécifique et d'activité d'un auteur au sein d'une même situation a été vérifié. Les observations réalisées dans cette recherche indiquent que les auteurs de cambriolages sont actifs dans des niches. Plusieurs auteurs sériels ont commis des délits qui ne sont pas dans leur niche, mais le nombre de ces infractions est faible par rapport au nombre de cas commis dans la niche. Un système de classification qui correspond à des réalités criminelles permet de décomposer les événements et de mettre en place un système d'alerte et de suivi « intelligent ». Une nouvelle série dans un phénomène sera détectée par une augmentation du nombre de cas de ce phénomène, en particulier dans une région et à une période donnée. Cette nouvelle série, mélangée parmi l'ensemble des délits, ne serait pas forcément détectable, en particulier si elle se déplace. Finalement, la coopération entre les structures de renseignement criminel opérationnel en Suisse romande a été améliorée par le développement d'une plateforme d'information commune et le système de classification y a été entièrement intégré.
« Rien de nouveau sous le soleil » ? L'indice intertextuel dans « L'Élixir de longue vie » de Balzac
Resumo:
Cette étude de cas s'attache à mettre en évidence le réemploi de séquences narratives d'origines diverses dans la composition d'une « Étude philosophique » de La Comédie humaine, L'Élixir de longue vie. Il ne s'agit pas de révéler une hypothétique unique source de L'Élixir, mais de montrer, par un examen minutieux, comment le texte balzacien réorganise des éléments issus de plusieurs hypotextes dans un contexte discursif, textuel et intertextuel nouveau, afin de produire des effets de sens inédits.
Resumo:
Dès le milieu des années 1920 et le développement des premiers prototypes fonctionnels, la télévision se fait objet d'exposition. La nouvelle technologie est montrée à des foires industrielles et dans des grands magasins, à des expositions universelles et nationales : exposée, la télévision devient un mass media avant même qu'elle ne diffuse des émissions régulières. En étudiant les présentations publiques de la télévision en Allemagne, en Grande-Bretagne et aux Etats-Unis entre 1928 - date de l'ouverture des premières expositions annuelles dans les trois pays - et 1939 - moment de l'interruption de celles-ci suite à l'éclatement de la Deuxième Guerre mondiale - Television before TV montre que les lieux où le médium rencontre son premier public constituent les mêmes espaces qui, rétrospectivement, permettent de comprendre son avènement. Cette recherche propose ainsi de nouvelles pistes pour l'histoire des médias en interrogeant la définition de la télévision en tant que médium du privé. Elle rappelle l'importance historique de l'espace public pour la « vision à distance » et, dépassant la perspective nationale, reconstitue les différences et similarités techniques, médiatiques et institutionnelles de la télévision allemande, américaine et britannique dans l'entre-deux-guerres. Développée dans un contexte qui est simultanément nationaliste et nourri d'échanges et de compétitions internationales, la télévision sert de comparatif dans les rivalités entre pays, mais stimule également la circulation de savoir-faire et de personnes. Sa forte valeur symbolique comme emblème du progrès scientifique et, dans le cas allemand, comme preuve de la modernité du régime national-socialiste se traduit dans les salles d'expositions par des scénographies souvent innovatrices, dont les photographies et descriptions se propagent au-delà de la presse locale. Au centre d'un réseau discursif et représentationnel, les expositions jouent alors un rôle essentiel pour la construction sociale, politique et culturelle de la télévision. Remplaçant l'analyse de textes audiovisuels par l'étude de la machine exposée, ma recherche reformule la question bazinienne de qu'est-ce que la télévision ? pour demander où le médium se situe-t-il ? Cette prémisse méthodologique permet de contourner une évaluation qualitative de la technologie qui déplorerait ses multiples imperfections, et éclaire d'un nouveau jour des dispositifs télévisuels qui, même sans programme, intègrent un univers voué à la culture de consommation et du loisir.
Resumo:
Résumé La performance diagnostic des signes et symptômes de la grippe a principalement été étudiée dans le cadre d'études contrôlées avec des critères d'inclusion stricts. Il apparaît nécessaire d'évaluer ces prédicteurs dans le cadre d'une consultation ambulatoire habituelle en tenant compte du délai écoulé entre le début des symptômes et la première consultation ainsi que la situation épidémiologique. Cette étude prospective a été menée à la Policlinique Médicale Universitaire durant l'hiver 1999-2000. Les patients étaient inclus s'ils présentaient un syndrome grippal et si le praticien suspectait une infection à Influenza. Le médecin administrait un questionnaire puis une culture d'un frottis de gorge était réalisée afin de documenter l'infection. 201 patients ont été inclus dans l'étude. 52% avaient une culture positive pour Influenza. En analyse univariée, une température > 37.8° (OR 4.2; 95% CI 2.3-7.7), une durée des symptômes < 48h (OR 3.2; 1.8-5.7), une toux (OR 3.2; 1-10.4) et des myalgies (OR 2.8; 1.0-7.5) étaient associés au diagnostic de grippe. En analyse de régression logistique, le modèle le plus performant qui prédisait la grippe était l'association d'une durée des symptômes <48h, une consultation en début d'épidémie, une température > 37.8° et une toux (sensibilité 79%, spécificité 69%, valeur prédictive positive 67%, une valeur prédictive négative de 73% et aire sous la courbe (ROC) de 0.74). En plus des signes et symptômes prédicteurs de la grippe, le médecin de premier recours devrait prendre en compte dans son jugement la durée des symptômes avant la première consultation et le contexte épidémiologique (début, pic, fin de l'épidémie), car ces deux paramètres modifient considérablement la valeurs des prédicteurs lors de l'évaluation de la probabilité clinique d'un patient d'avoir une infection à Influenza.
Resumo:
L'éthique politique de Jean Calvin (1509-1564) est à la fois une éthique religieuse, inspirée par le puissant mouvement réformateur de Luther, et une éthique de la Loi morale, soucieuse d'instruire un nouveau rapport au droit et à la cité. La manière même dont Calvin énonce le rôle ambigü de l'Eglise, lieu de libération mais aussi instrument de contrôle social, est révélatrice de sa visée critique et constructive, comme de ses propres limites. Reconnue dans sa distance et dans son contexte, l'éthique de Calvin en sera d'autant plus signifiante pour quiconque entend refonder l'alliance de la démocratie, de la laïcité et d'une forme de transcendance, en régime de méta-modernité.
Resumo:
CONTEXTE: Pour diverses raisons, les adultes et en particulier les parents croient que la pratique sportive à l'adolescence est un facteur de protection contre les comportements à risque tels que la consommation de substances. Les preuves présentes à l'intérieur de la littérature ne sont toutefois pas concluantes à ce sujet. Le principal objectif de notre étude était donc de comparer la prévalence de la consommation de substances psychoactives (licites et illicites) et de substances ergogéniques et dopantes entre les jeunes de Suisse Romande pratiquant un sport et ceux n'en pratiquant pas.METHODES: À l'aide de plusieurs méthodes de recrutement, des adolescents sportifs et non sportifs âgés de 16 à 20 ans furent invités à répondre à un questionnaire anonyme en ligne sur leur consommation de substances. Les substances psychoactives étudiées furent principalement le tabac, l'alcool, et le cannabis. Le dopage a été limité à la volonté d'améliorer les performances tout en utilisant des produits interdits selon l'Agence Mondiale Antidopage (liste 2009). Plusieurs produits légaux liés à la pratique sportive ont également été étudiés. Sur une période de 10 mois, un total de 1303 questionnaires ont été complétés. De l'échantillon final pondéré, les réponses de 1247 sujets éligibles ont été analysées.RESULTATS ET CONCLUSIONS: Dans l'ensemble, l'effet protecteur d'une pratique sportive contre l'utilisation de substances psychoactives semble dépendre de la substance à l'étude.Les jeunes non-sportifs sont plus susceptibles de fumer que les sportifs, et, parmi ces derniers, ceux évoluant dans un contexte de loisir sont plus susceptibles de fumer que ceux en pratique compétitive. Au contraire, aucune différence concernant l'abus d'alcool n'a été observée entre les adolescents sportifs et non-sportifs, indiquant que la pratique sportive ne représente pas une protection contre l'abus d'alcool. Bien que les jeunes non-sportifs soient deux fois plus susceptibles d'être utilisateurs actuels de cannabis, un jeune sportif sur neuf en a néanmoins consommé dans le dernier mois.Les trois quarts des jeunes sportifs interrogés indiquent utiliser activement des produits pour améliorer leurs performances, confirmant la tendance actuellement perçue. Parmi les substances utilisées pour améliorer les performances sportives, les produits contenant de la caféine, les boissons sportives et les suppléments alimentaires sont les trois plus souvent signalés.Peu de jeunes sportifs en Suisse Romande semblent utiliser des substances bannies par l'Agence Mondiale Antidopage, le cannabis étant celui le plus fréquemment cité.Parmi les jeunes sportifs, ceux en pratique compétitive semblent plus susceptibles d'utiliser des produits pour améliorer leurs performances que ceux évoluant dans un contexte de loisir. En outre, Un lien entre les substances psychoactives et celles prises pour améliorer les performances sportives semblent exister: tous les jeunes sportifs signalant soit fumer, avoir abusé de l'alcool récemment ou consommer actuellement du cannabis ont démontré une consommation plus élevée de produits dopants. L'usage du cannabis comme un moyen d'améliorer les performances sportives semble assez fréquent chez les consommateurs récréatifs de cette substance.Les jeunes sportifs évoluant au niveau international ont montré des taux plus bas d'abus d'alcool et de cannabis.
Resumo:
Le travail policier et l'enquête judiciaire nécessitent de prendre de nombreuses décisions : choisir quelle trace analyser, mettre sous surveillance ou en détention un suspect, sont autant de décisions qui sont prises quotidiennement par les acteurs du système judiciaire. Ces décisions font l'objet de pesées d'intérêts qui se fondent sur l'analyse de l'information accessible. C'est le rôle de l'analyse criminelle de mettre en perspective l'information colligée pour la rendre intelligible aux décideurs compétents. L'usage de représentations graphiques est notamment recommandé pour soutenir l'analyse et la communication de ces informations.Des techniques de visualisation relationnelle sont notamment exploitées dans les enquêtes judiciaires afin de faciliter le traitement d'affaires d'envergure. Les éléments pertinents de l'enquête sont représentés sous la forme de schémas décrivant les relations entre les événements et les entités d'intérêts (tel que des personnes, des objets et des traces). Les exploitations classiques de ces techniques qui s'apparentent à des graphes, sont par exemple : la représentation de réseaux criminels, de trafics de marchandises, de chronologies d'événements, ainsi que la visualisation de relations téléphoniques et financières. Dans ce contexte, la visualisation soutient un nombre importants d'objectifs, tels qu'analyser les traces et les informations collectées, évaluer a posteriori une investigation, aider à qualifier les infractions, faciliter l'appréhension d'un dossier, voire soutenir une argumentation lors du procès.La pratique intègre des outils logiciels simples qui produisent des graphiques élégants et souvent percutants. Leur utilisation semble néanmoins soulever des difficultés. Cette recherche tend à montrer qu'il existe des disparités étonnantes lors de l'exploitation de ces techniques. Des biais de raisonnement et de perception peuvent être induits, allant jusqu'à provoquer des décisions aux conséquences parfois désastreuses. Ce constat révèle la nécessité de consolider les méthodes pratiquées.Pour mettre en évidence ces difficultés, des évaluations ont été effectuées avec des praticiens et des étudiants. Elles ont permis d'établir une image empirique de l'étendue des variations de conception et d'interprétation des représentations, ainsi que de leurs impacts sur la prise de décision. La nature et la diversité des concepts à représenter, l'absence d'un consensus émergeant sur la manière de représenter les données, la diversité des solutions visuelles envisageables, les contraintes imposées par les outils exploités et l'absence d'une formalisation claire du langage, sont autant de causes supposées des difficultés.Au cours des vingt dernières années, plusieurs axes de développement ont été proposés pour traiter les difficultés observées, tels que l'amélioration des automatismes facilitant la conception d'une représentation, l'exploitation des techniques de réseaux sociaux, l'automatisation de l'identification et de l'extraction des entités dans du texte non-structuré et la définition de langages formels. Cette recherche propose une approche parallèle fondée sur une exploitation adaptée de structures de graphe et de propriétés visuelles pour optimiser la représentation en fonction des objectifs définis et de la nature des informations à représenter.Des solutions ont été recherchées selon plusieurs axes. Des recommandations générales, issues de diverses communautés de recherche liées à la visualisation, ont été recherchées afin de proposer une démarche générale de conception des schémas relationnels. Par ailleurs, le développement d'un catalogue de bonnes pratiques formalisées sous la forme de patterns de visualisation a été amorcé. Chaque pattern décrit une solution particulière pour un problème d'analyse récurrent, tel que l'analyse d'une série de cambriolages. Finalement, l'impact sur les outils de la méthodologie proposée est discuté en regard des limites qu'ils imposent. Un prototype de visualisation multidimensionnel a été élaboré.Cette recherche met en évidence les difficultés rencontrées lors de l'exploitation de représentations graphiques pour soutenir le processus de l'enquête judiciaire et propose des éléments de méthode et des innovations techniques utiles tant pour l'enseignement de la discipline que pour sa pratique.