238 resultados para potentiels statistiques
Resumo:
«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-‐variabilité) et entre les traces digitales de donneurs différents (inter-‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-‐variabilité des résidus était significativement plus basse que l'inter-‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-‐variability) and between fingermarks of different donors (inter-‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-‐variability of the fingermark residue was significantly lower than the inter-‐variability, but that it was possible to reduce both kind of variability using different statistical pre-‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.
Resumo:
Cette thèse analyse la co-évolution de deux secteurs dans la politique de la santé: santé publique (public health) et soins aux malades (health care). En d'autres termes, la relation entre les dimensions curative et préventive de la politique de la santé et leur développement dans la durée. Une telle recherche est nécessaire car les problèmes de la santé sont complexes et ont besoin de solutions coordonnées. De plus, les dépenses de la santé ont augmenté sans arrt durant les dernières décennies. Un moyen de réduire une future augmentation des dépenses pourrait consister en davantage d'investissement dans des mesures préventives. En relation avec cette idée, ma recherche analyse les politiques de la santé publique et les soins aux malades de cinq pays: Allemagne, Angleterre, Australie, Etats-Unis et Suisse. En m'appuyant sur la littérature secondaire, des statistiques descriptives et des entretiens avec des experts et des politiciens, j'analyse la relation entre les deux secteurs depuis la fin du dix-neuvième siècle. En particulier, je me focalise sur la relation des deux champs sur trois niveaux: institutions, acteurs et politiques. Mes résultats montrent les similitudes et les différences d'évolution entre les cinq pays. D'un c^oté, lorsque la profession médicale est politiquement active et que le pays consiste en une fédération centralisée ou en un gouvernement unitaire, les deux secteurs sont intégrés au niveau institutionnel, ralliant les professions et groupes d'intérêt des deux secteurs la cause commune dans une activité politique. Par contre, dans tous les pays, les deux secteurs ont co-évolué vers une complémentarité malgré de la politisation des professions et la centralisation du gouvernement. Ces résultats sont intéressants pour la science politique en général car ils soulignent l'importance des professions pour le développement institutionnel et proposent un cadre pour l'analyse de la co-évolution des politiques publiques en général. -- This Ph.D. thesis analyzes the co-evolution of the health care and the public health sectors. In other words, the relation between preventive and curative health policy and its evolution over time. Such research is necessary, because current health problems are complex and might need coordinated solutions. What is more, health expenditures have increased continuously in the last decades. One way to slow down further increase in health spending could be to invest more in preventative health policies. Therefore, I am connecting individual health care and public health into a common analysis, taking Australia, Germany, Switzerland, the UK and the U.S. as examples. Based on secondary literature, descriptive statistics and interviews with experts and policymakers, I am analyzing how the two sectors' relations co-evolved between the late nineteenth and the early twenty-first century. Specifically, I am researching how health care and public health were related on the levels of institutions, actors and policies. My results show that there are differences and similarities in the co-evolution of policy sectors between these countries. On the one hand, when the medical profession was politically active and the country a centralized federation or a unitary state, there was institutional integration and common political advocacy of the sectors' interest groups and professions. On the other hand, in all countries, both sectors co-evolved towards complementarity, irrespectively of the politicization of professions and centralization of government. These findings are interesting for the political science literature at large, because they underline the importance of professions for institutional development and propose an analytical framework for analyzing the co-evolution of policy sectors in general.
Resumo:
Nowadays, Species Distribution Models (SDMs) are a widely used tool. Using different statistical approaches these models reconstruct the realized niche of a species using presence data and a set of variables, often topoclimatic. There utilization range is quite large from understanding single species requirements, to the creation of nature reserve based on species hotspots, or modeling of climate change impact, etc... Most of the time these models are using variables at a resolution of 50km x 50km or 1 km x 1 km. However in some cases these models are used with resolutions below the kilometer scale and thus called high resolution models (100 m x 100 m or 25 m x 25 m). Quite recently a new kind of data has emerged enabling precision up to lm x lm and thus allowing very high resolution modeling. However these new variables are very costly and need an important amount of time to be processed. This is especially the case when these variables are used in complex calculation like models projections over large areas. Moreover the importance of very high resolution data in SDMs has not been assessed yet and is not well understood. Some basic knowledge on what drive species presence-absences is still missing. Indeed, it is not clear whether in mountain areas like the Alps coarse topoclimatic gradients are driving species distributions or if fine scale temperature or topography are more important or if their importance can be neglected when balance to competition or stochasticity. In this thesis I investigated the importance of very high resolution data (2-5m) in species distribution models using either very high resolution topographic, climatic or edaphic variables over a 2000m elevation gradient in the Western Swiss Alps. I also investigated more local responses of these variables for a subset of species living in this area at two precise elvation belts. During this thesis I showed that high resolution data necessitates very good datasets (species and variables for the models) to produce satisfactory results. Indeed, in mountain areas, temperature is the most important factor driving species distribution and needs to be modeled at very fine resolution instead of being interpolated over large surface to produce satisfactory results. Despite the instinctive idea that topographic should be very important at high resolution, results are mitigated. However looking at the importance of variables over a large gradient buffers the importance of the variables. Indeed topographic factors have been shown to be highly important at the subalpine level but their importance decrease at lower elevations. Wether at the mountane level edaphic and land use factors are more important high resolution topographic data is more imporatant at the subalpine level. Finally the biggest improvement in the models happens when edaphic variables are added. Indeed, adding soil variables is of high importance and variables like pH are overpassing the usual topographic variables in SDMs in term of importance in the models. To conclude high resolution is very important in modeling but necessitate very good datasets. Only increasing the resolution of the usual topoclimatic predictors is not sufficient and the use of edaphic predictors has been highlighted as fundamental to produce significantly better models. This is of primary importance, especially if these models are used to reconstruct communities or as basis for biodiversity assessments. -- Ces dernières années, l'utilisation des modèles de distribution d'espèces (SDMs) a continuellement augmenté. Ces modèles utilisent différents outils statistiques afin de reconstruire la niche réalisée d'une espèce à l'aide de variables, notamment climatiques ou topographiques, et de données de présence récoltées sur le terrain. Leur utilisation couvre de nombreux domaines allant de l'étude de l'écologie d'une espèce à la reconstruction de communautés ou à l'impact du réchauffement climatique. La plupart du temps, ces modèles utilisent des occur-rences issues des bases de données mondiales à une résolution plutôt large (1 km ou même 50 km). Certaines bases de données permettent cependant de travailler à haute résolution, par conséquent de descendre en dessous de l'échelle du kilomètre et de travailler avec des résolutions de 100 m x 100 m ou de 25 m x 25 m. Récemment, une nouvelle génération de données à très haute résolution est apparue et permet de travailler à l'échelle du mètre. Les variables qui peuvent être générées sur la base de ces nouvelles données sont cependant très coûteuses et nécessitent un temps conséquent quant à leur traitement. En effet, tout calcul statistique complexe, comme des projections de distribution d'espèces sur de larges surfaces, demande des calculateurs puissants et beaucoup de temps. De plus, les facteurs régissant la distribution des espèces à fine échelle sont encore mal connus et l'importance de variables à haute résolution comme la microtopographie ou la température dans les modèles n'est pas certaine. D'autres facteurs comme la compétition ou la stochasticité naturelle pourraient avoir une influence toute aussi forte. C'est dans ce contexte que se situe mon travail de thèse. J'ai cherché à comprendre l'importance de la haute résolution dans les modèles de distribution d'espèces, que ce soit pour la température, la microtopographie ou les variables édaphiques le long d'un important gradient d'altitude dans les Préalpes vaudoises. J'ai également cherché à comprendre l'impact local de certaines variables potentiellement négligées en raison d'effets confondants le long du gradient altitudinal. Durant cette thèse, j'ai pu monter que les variables à haute résolution, qu'elles soient liées à la température ou à la microtopographie, ne permettent qu'une amélioration substantielle des modèles. Afin de distinguer une amélioration conséquente, il est nécessaire de travailler avec des jeux de données plus importants, tant au niveau des espèces que des variables utilisées. Par exemple, les couches climatiques habituellement interpolées doivent être remplacées par des couches de température modélisées à haute résolution sur la base de données de terrain. Le fait de travailler le long d'un gradient de température de 2000m rend naturellement la température très importante au niveau des modèles. L'importance de la microtopographie est négligeable par rapport à la topographie à une résolution de 25m. Cependant, lorsque l'on regarde à une échelle plus locale, la haute résolution est une variable extrêmement importante dans le milieu subalpin. À l'étage montagnard par contre, les variables liées aux sols et à l'utilisation du sol sont très importantes. Finalement, les modèles de distribution d'espèces ont été particulièrement améliorés par l'addition de variables édaphiques, principalement le pH, dont l'importance supplante ou égale les variables topographique lors de leur ajout aux modèles de distribution d'espèces habituels.
Resumo:
La présente recherche traite des défis posés à l'action publique territoriale par la transition énergétique, transition désormais érigée au rang de priorité par les autorités françaises et suisses, comme plus globalement européennes. Elle prend pour cela appui sur une analyse des démarches de planification énergétique territoriale menées entre 2007 et 2014 sur le territoire franco-valdo-genevois (agglomération du « Grand-Genève »). Considérées comme des laboratoires d'expérimentation de la territorialisation des politiques énergétiques, ces démarches sont ici examinées selon une perspective institutionnaliste et pragmatiste visant à mettre lumière les éléments qui interviennent dans la délimitation du champ des possibles en matière d'action publique énergétique et territoriale. Ce positionnement découle des évolutions observées sur le territoire franco-valdo-genevois durant la période d'étude (chapitre 1). Il découle plus précisément du constat de récurrence de certains points de blocage rencontrés aussi bien dans les démarches de planification énergétique elles-mêmes que dans les travaux méthodologiques qui ont pu être réalisés parallèlement à ces démarches, dans le but d'en affiner les outils techniques et organisationnels de mise en oeuvre. Ainsi, le point de départ de la présente recherche est le constat selon lequel on peine tout autant à construire des solutions énergétiques appropriables et réalisables par les acteurs des territoires concernés qu'à reconfigurer les outils de production de ces solutions. De ce constat découle l'intérêt porté aux cadres institutionnels qui régissent ces planifications énergétiques territoriales. Définis comme l'ensemble des repères - formels et informels - qui rendent possibles en même temps qu'ils contraignent les interactions territorialisées entre les acteurs, ces cadres institutionnels sont placés au coeur de la grille de (re)lecture des expériences de planification énergétique territoriale établie au chapitre 2 de la thèse. En référence aux concepts institutionnalistes et pragmatistes sur lesquels elle prend appui, cette grille conduit à appréhender ces expériences comme autant d'enquêtes contribuant, à travers le travail de mobilisation et construction de représentations territoriales auquel elles donnent lieu, à l'équipement sociocognitif d'un champ d'intervention territorial spécifique. Partant de l'hypothèse selon laquelle les potentialités comme les limites associées à l'équipement sociocognitif de ce champ orientent les possibilités d'action collective, la réflexion consiste en une application de cette grille à une trentaine d'expériences de planification énergétique territoriale. Cette application s'effectue en deux temps, correspondant à deux niveaux de lecture de ces démarches. Le premier porte sur les dispositifs organisationnels et les modalités d'interactions entre les cultures d'action qu'elles réunissent (chapitre 3). Le second se concentre davantage sur les supports cognitifs (représentations territoriales) autour desquels se structurent ces interactions (chapitre 4). Présentés dans le dernier chapitre de la thèse (chapitre 5), les enseignements tirés de ce travail de réexamen des démarches franco-valdo-genevoises de planification énergétique territoriale sont de deux ordres. Ils portent d'abord sur les caractéristiques des cadres institutionnels existants, la manière dont ils orientent ces démarches et délimitent les évolutions possibles dans les modes d'action collective et plus particulièrement d'action publique qui y sont associés. Mais ils portent aussi sur les potentiels de changement associés à ces démarches, et sur les pistes envisageables pour mieux valoriser es potentiels, dont l'activation passe par des évolutions profondes des systèmes institutionnels en place. -- In France as in Switzerland, local authorities stand out as leading players of energy transition, a transition that requires an important renewal of public intervention instruments. It is the stakes and the conditions of such a renewal that the present work aims to examine, based on the experiments of territorial energy planning led on the franco-valdo-genevan cross-border territory. Conceived as initiatives of relocation of the energy supply system, these energy planning initiatives are examined through an institutionalist and pragmatic « reading template ». This « reading template » consists of seeing these energy planning initiatives as pragmatist inquiries aiming, through a collective work of cognitive equipment of the territorial franco-valdo-genevan field of intervention, at the reconstruction of the means of coordination between people about their material, organizational and political territory. It opens towards a double reading of the energy planning initiatives. The first one concentrates on the organizational dimension of these inquiries - i.e. on the cultures of action which they gather and the modalities of interaction between them - whereas the second focuses on the cognitive substance which represents the medium of the interactions. This double reading provides insights at various levels. The first one concerns the (cognitive) territorial field of intervention that these energy-planning experiments contribute to draw. A field which, although better and better characterized in its technical dimensions, remains at the same time limited and " deformed " so that it values more the fossil energy systems, from which we want to release ourselves, than the renewable ones, which we would like to replace them with. The second level of teaching concerns the processes of production of territorial knowledge (PPTK) which presides over the demarcation and « equipment » of the territorial field of intervention. Examined through the institutional norms and the culture of action at stake in them, this PPTK turns out to create a sociocognitive "cross-border" area, the kind of area that could shelter the desired reconfigurations...on the condition that they are beforehand correctly "equipped", in cognitive and also in organizational terms. The determining factor for the quality of this equipment is concentrated in the third category of teaching. Starting with the opportunities created by these energy planning experiments concerning the renewal of public intervention instruments, these elements also allow us to take a new look at the urban area project under construction in this cross-border territory, a project th t shows itself closely linked to the energy experiments through a common challenge of territorialisation.
Resumo:
L'Office fédéral de la santé publique (OFSP) a mandaté la Fédération romande des consommateurs (FRC) et l'Institut universitaire de médecine sociale et préventive (IUMSP) pour réaliser une cartographie du marché des préservatifs et analyser les données disponibles pour estimer le nombre de préservatifs écoulés sur le marché suisse en une année. Les données disponibles identifiées sont les suivantes : 1. Données Verein : l'Association pour le label de qualité des préservatifs possède des données sur le nombre de préservatifs testés chaque année pour l'obtention du label OK. Ces données constituent une estimation du nombre de préservatifs ayant suivi la procédure de certification du label OK. Ces dernières années, des entreprises auraient renoncé à leur collaboration avec l'association pour le label de qualité, ce qui réduit la fiabilité de cette méthode pour suivre l'évolution du marché des préservatifs en Suisse. 2. Données douanes : l'Administration fédérale des douanes établit une statistique du commerce extérieur et met à disposition une base de données qui donne accès aux données statistiques d'importation et d'exportation de préservatifs. Etant donné que cette statistique se base sur les données indiquées par les importateurs et les exportateurs, des erreurs de déclaration peuvent être commises. 3. Données IUMSP : entre 1986 et 2011, l'IUMSP a reçu des producteurs/importateurs des données de mises sur le marché de préservatifs. Ces données, fiables car provenant directement des producteurs/importateurs, ne sont malheureusement plus complètes depuis 2012, en raison d'une difficulté croissante à obtenir de telles informations. 4. Données Nielsen et IMS Health : Nielsen et IMS HEalth sont des entreprises privées qui recensent les données de vente des préservatifs en Suisse réalisées dans les commerces de détail, ainsi que dans les drogueries et pharmacies. Ces données constituent des données de vente réelles obtenues grâce à l'enregistrement des mouvements de la marchandise lors du passage en caisse dans les magasins. La couverture des points de vente est élevée (près de 80% pour les données Nielsen) et stable dans le temps.
Resumo:
Les pistolets à impulsion électrique (PIE) sont de plus en plus fréquemment utilisés en Europe ces dernières années, le modèle le plus connu étant le Taser®. Les connaissances scientifiques concernant les PIE et leurs effets potentiels restent toutefois limitées. Nous avons conduit une revue de littérature afin d'évaluer les implications potentielles de leur utilisation en termes de sécurité, de morbidité et de mortalité. Une exposition unique chez un individu sain peut généralement être considérée comme peu dangereuse. Les sujets à risque de complications sont les individus exposés à de multiples décharges, les personnes sous l'influence de substances psychoactives, ceux qui montrent des signes d'agitation extrême, ou encore les individus présentant des comorbidités médicales. L'éventail des complications pouvant survenir lors de leur exposition est large et inclut les lésions provoquées par les impacts des électrodes, les traumatismes liés à la chute induite par la paralysie transitoire ou des complications cardiovasculaires. Dans ce contexte, les personnes exposées doivent être examinées attentivement, et les éventuelles lésions traumatiques doivent être exclues. The use of electronic control devices (ECD), such as the Taser®, has increased in Europe over the past decade. However, scientific data concerning the potential health impact of ECD usage remains limited. We reviewed the scientific literature in order to evaluate the safety, mortality, and morbidity associated with ECD use. Exposure of a healthy individual to a single ECD electroshock can be considered generally safe. Complications can, however, occur if the patient is subject to multiple electroshocks, if the patient has significant medical comorbidities, or when exposure is associated with drug abuse or agitated delirium. The broad spectrum of potential complications associated with ECD exposure includes direct trauma caused by the ECD electrodes, injuries caused by the transient paralysis-induced fall, and cardiovascular events. An ECD-exposed patient requires careful examination during which traumatic injuries are actively sought out.
Resumo:
La coexistence des charges professionnelles, familiales, et d'aide à des ascendants expose la Génération Sandwich (GS) à des risques potentiels pour sa santé. Toutefois, les connaissances sur la GS sont insuffisantes pour permettre aux infirmières du secteur de la santé au travail de développer des interventions en promotion de la santé basées sur des preuves. Ce manque de clarté est préoccupant au vu de certaines tendances sociodémographiques. La présente étude vise à dresser le portrait des travailleurs de la GS en examinant les liens entre leurs caractéristiques, leurs charges co-existantes et leur santé perçue. Pour ce faire, nous avons développé un cadre de référence salutogénique. puis, nous l'avons utilisé pour conduire une recherche descriptive corrélationnelle transversale. un questionnaire électronique a permis de récolter les données de 826 employés d'une administration publique suisse. L'examen a montré que 23.5 % de l'échantillon appartenait à la GS. Cette appartenance ne dépendait pas du sexe. la charge de travail totale (70.5 h/sem) de la GS différait significativement de celle du reste de l'échantillon (62.8 h/sem). Nous n'avons pas trouvé de relation entre cette charge totale et la santé physique ou mentale des femmes. En revanche, il y avait une relation négative entre cette charge totale et la santé physique des hommes, et cette relation était proche du seuil de significativité pour la santé mentale de ces derniers. Grâce à une analyse soucieuse de faire évoluer favorablement les inégalités de genre (gender-transformative), cette étude fournit des pistes pour fonder des interventions préventives en faveur de la santé des membres de la GS.
Resumo:
Second-generation antipsychotics (SGAs) have become the first-line antipsychotic treatment for psychotic disorders due to their better overall tolerance compared to classical antipsychotics. However, metabolic side effects such as weight gain are frequently described during treatment with SGAs and/or other psychotropic drugs including some antidepressants and mood stabilizers, which may also result in poor adherence to treatment. The aim of this work was to investigate different methods to predict common side effects, in particular weight gain during treatment with weight gain inducing psychotropic drugs. Firstly, clinical data were used to determine the potential predictive power of a one month weight gain on weight increase after three and 12 months of treatment (n=351 patients). A fast and strong weight gain of >5% after a period of one month (>5%WG) was found to be the best predictor for an important weight gain at three (>15%) and 12 months (>20%). Similar analyses in an independent cohort of psychiatric adolescents (n=42), showed that a comparable >4% weight gain at one month is the best predictor for an important weight gain at three months (>15%). Secondly, we aimed to determine whether an extensive analysis of genes could be used, in addition to clinical factors, to predict patients at risk for >5%WG or for type 2 diabetes (T2D). Adding genetic markers to clinical variables to predict >5%WG increased significantly the area under the curve (AUC) of the analysis (AUCfinai:0.92, AUCdmicai:0.75, pcO.OOOl, n=248). Conversely, genetic risk scores were found to be associated with T2D (OR: 2.5, p=0.03, n=285) but without a significant increase of AUC'when compared to the prediction based to clinical factors alone. Finally, therapeutic drug monitoring was used to predict extrapyramidal symptoms during risperidone treatment (n=150). Active moiety (sum of risperidone and of its active metabolite 9- hydroxyrisperidone plasma concentrations) of >40 ng/ml should be targeted only in case of insufficient response. These results highlight different approaches for personalizing psychotropic treatments in order to reduce related side effects. Further research is needed, in particular on the identification of genetic markers, to improve the implementation of these results into clinical practice. Résumé Les antipsychotiques atypiques (APA) sont devenus le traitement antipsychotique de première intention pour le traitement des psychoses, grâce à un profil d'effets secondaires plus favorables comparé aux antipsychotiques typiques. Néanmoins, d'autres effets indésirables d'ordre métabolique (ex. prise pondérale) sont observés sous APA, stabilisateurs de l'humeur et/ou certains antidépresseurs, pouvant aussi limiter l'adhérence au traitement. L'objectif de ce travail est d'explorer différentes méthodes permettant de prédire des effets secondaires courants, en particulier la prise de poids durant un traitement avec des psychotropes pouvant induire un tel effet. Dans une première partie, des données cliniques ont été évaluées pour leurs potentiels prédictifs d'une prise de poids à un mois sur une prise de poids à trois et 12 mois de traitement (n=351 patients). Une prise de poids rapide et forte >5% à un mois (PP>5%) s'est avérée être le meilleur prédicteur pour une prise pondérale importante à trois (>15%) et 12 (>20%) mois de traitement. Des analyses similaires dans une cohorte pédiatrique (n=42) ont indiqué une prise de poids >4% à un mois comme le meilleur prédicteur pour une prise pondérale importante (>15%) à trois mois de traitement. Dans une deuxième partie, des marqueurs génétiques, en complément aux données cliniques, ont été analysés pour leur contribution potentielle à la prédiction d'une PP>5% et au dépistage du diabète de type 2 (DT2). L'ajout de variants génétiques aux données cliniques afin de prédire une PP>5% a augmenté significativement l'aire sous la courbe (ASC) de l'analyse (ASCflnai:0.92, ASCC|inique:0.75, p<0.0001, n=248). Concernant le DT2, un score génétique est associé au DT2 (OR: 2.5, p=0.03, n=285), néanmoins aucune augmentation significative de l'ASC n'a été observée par rapport à l'analyse avec les données cliniques seules. Finalement, des mesures de concentrations plasmatiques de médicaments ont été utilisées pour prédire la survenue de symptômes extrapyramidaux sous rispéridone (n=150). Cette analyse nous a permis d'établir qu'une concentration plasmatique de rispéridone associée à son métabolite actif >40 ng/ml ne devrait être recherchée qu'en cas de réponse clinique insuffisante. Ces différents résultats soulignent différentes approches pour personnaliser la prescription de psychotropes afin de réduire la survenue d'effets secondaires. Des études supplémentaires sont néanmoins nécessaires, en particulier sur l'identification de marqueurs génétiques, afin d'améliorer l'implémentation de ces résultats en pratique clinique. Résumé large publique Les antipsychotiques atypiques et autres traitements psychotropes sont couramment utilisés pour traiter les symptômes liés à la schizophrénie et aux troubles de l'humeur. Comme pour tout médicament, des effets secondaires sont observés. L'objectif de ce travail est d'explorer différentes méthodes qui permettraient de prédire la survenue de certains effets indésirables, en particulier une prise de poids et la survenue d'un diabète. Dans une première partie, nous avons évalué l'effet d'une prise de poids précoce sur une prise de poids au long terme sous traitement psychotrope. Les analyses ont mis en évidence dans une population psychiatrique qu'une prise de poids à un mois >5% par rapport au poids initial permettait de prédire une prise pondérale importante après trois (>15%) et 12 (>20%) mois de traitement. Un résultat semblable a. été observé dans un autre groupe de patients exclusivement pédiatriques. Dans une deuxième partie, nous avons évalué la contribution potentielle de marqueurs génétiques à la prédiction d'une prise pondérale de >5% après un mois de traitement ainsi que dans la survenue d'un diabète de type 2. Pour la prise de poids, la combinaison des données génétiques aux données cliniques a permis d'augmenter de 17% la précision de la prédiction, en passant de 70% à 87%. Concernant la survenue d'un diabète, les données génétiques n'ont pas amélioré la prédiction. Finalement, nous avons analysé la relation possible entre les concentrations sanguines d'un antipsychotique atypique couramment utilisé, la rispéridone, et la survenue d'effets secondaires (ici les tremblements). Il est ressorti de cette étude qu'une concentration plasmatique du médicament supérieure à 40 ng/ml ne devrait être dépassée qu'en cas de réponse thérapeutique insuffisante, au risque de voir augmenter la survenue d'effets secondaires du type tremblements. Ces résultats démontrent la possibilité de prédire avec une bonne précision la survenue de certains effets secondaires. Cependant, en particulier dans le domaine de la génétique, d'autres études sont nécessaires afin de confirmer les résultats obtenus dans nos analyses. Une fois cette étape franchie, il serait possible d'utiliser ces outils dans la pratique clinique. A terme, cela pourrait permettre au prescripteur de sélectionner les traitements les mieux adaptés aux profils spécifiques de chaque patient.
Resumo:
L'immunoglobuline A sécrétoire (SlgA) est l'anticorps qui est dominant dans la réponse humorale des muqueuses. IgA est produit localement sous la forme de dimère ou polymère. Ces derniers sont ensuite relâchés dans les sécrétions muqueuses sous forme d'un complexe avec la pièce sécrétoire (SC). SlgA est capable d'identifier des antigènes microbiens dans l'environnement des muqueuses et de prévenir leur diffusion en bloquant l'adhésion ou la surface des cellules épithéliales. Au-delà de sa fonction classique d'exclusion immune, SlgA peut aussi adhérer aux cellules M présente au niveau des follicules associés à l'épithélium dans des structures organisées appelées plaques de Peyer (PPs) dans le système gastrointestinal. L'interaction sélective avec les SlgA amène cette dernière à être transportée à travers les cellules M Ce procès facilite l'association de l'anticorps avec les cellules dendritiques (DCs) CDllc+CDllb+, localisées dans la région sous-épithéliale des PPs. L'entrée de SlgA ou de microorganismes couverts par la SlgA via ce chemin est cruciale pour la modulation de la réponse immunitaire locale. Dans la première partie du travail, nous avons établi les conditions pour l'analyse de l'interaction entre SlgA et une lignes de DCs dérivée in vitro. Nous avons aussi montré que l'internalisation de la SlgA par les DCs est affecté après traitement avec des inhibiteurs de l'endocytose ou par l'utilisation de compétiteurs moléculaires. En utilisant le microscope confocal, on a observé qu'après internalisation la SlgA suit la voie endocytique, vers le compartiment lysozomal. Dans la deuxième partie du travail, une partie des résultats a été confirmée pour les DCs CDllc+CDllb+ des muqueuses. En outre, l'importance des sucres présents sur la SlgA a été mis en évidence par la réduction de l'interaction avec les DCs des muqueuses après déglycosylation. On a montré pour la première fois à notre connaissance que Dectin-1 et SIGNR3 sont des récepteurs potentiels pour la SlgA sur les DCs des muqueuses de la souris. De plus, les DCs de la souris prélevées des PPs, des ganglions lymphatiques mésentériques (MLNs) et de la rate ont été infectés avec Shigella flexneri (Sf) seule ou en complexe avec SlgA. Les DCs infectées ont montré une augmentation de l'expression des marqueurs co-stimulateurs, une forte production des cytokines pro¬inflammatoires et une induction de la prolifération des cellules T. Après l'association des Sf avec SlgA, les profils pro-inflammatoires des DCs ont diminués. En particulier, SlgA a un effet sur les cytokines sécrétées et sur la prolifération des cellules T. Ces données démontrent le rôle de la SlgA dans la réponse immunitaire par les DCs des muqueuses.
Resumo:
L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.
Resumo:
La violence parmi les jeunes est un thème récurrent dans les médias qui suscite de nombreuses inquiétudes dans la population. Les enquêtes standardisées répétées auprès des jeunes sur la violence qu'ils ont expérimentée, en tant qu'auteurs ou victimes, constituent une source précieuse de données pour étudier l'évolution de ce phénomène ainsi que d'autres formes de délinquance et de comportements à risque. Elles permettent également de décrire et de mieux comprendre les contextes dans lesquels les incidents violent se produisent et quelles sont les causes potentielles du passage à l'acte. Ces enquêtes sont un moyen efficace de dresser un état des lieux qui va bien au-delà de ce que peuvent montrer les statistiques officielles de la police et de la justice. En vue des enquêtes de 2014, les méthodologies des deux études cantonales ont été harmonisées de manière à augmenter les possibilités de comparaison. Ce processus d'harmonisation ainsi que la présente étude comparative ont été financés par l'Office fédéral des assurances sociales (OFAS). Par ailleurs, les habitudes des jeunes ayant évolué au cours des dix dernières années, un certain nombre de comportements ont été intégrés dans les questionnaires vaudois et zurichois de 2014, comme le cyber-harcèlement et la violence au sein des jeunes couples. La présente étude cherche à répondre à deux questions fondamentales : 1. Comment la violence parmi les jeunes ainsi que ses contextes et facteurs de risque ont-ils évolué ces dernières années ? 2. Quelles similarités et différences trouvons-nous entre les cantons de Vaud et de Zurich en 2014 ? Par conséquent, l'étude est divisée en deux parties : la première traite de l'évolution de la violence et d'autres problèmes comportementaux entre 1999 (Zurich) respectivement 2004 (Lausanne) et 2014 chez les jeunes habitants la ville de Lausanne ou de Zurich ; la seconde partie dresse le portrait de la situation en 2014 dans les cantons de Vaud et de Zurich. Pour des raisons d'échantillonnage les analyses dans le temps sont limitées à des comparaisons inter-villes plutôt qu'inter-cantonales.
Resumo:
Wastewater-based epidemiology consists in acquiring relevant information about the lifestyle and health status of the population through the analysis of wastewater samples collected at the influent of a wastewater treatment plant. Whilst being a very young discipline, it has experienced an astonishing development since its firs application in 2005. The possibility to gather community-wide information about drug use has been among the major field of application. The wide resonance of the first results sparked the interest of scientists from various disciplines. Since then, research has broadened in innumerable directions. Although being praised as a revolutionary approach, there was a need to critically assess its added value, with regard to the existing indicators used to monitor illicit drug use. The main, and explicit, objective of this research was to evaluate the added value of wastewater-based epidemiology with regards to two particular, although interconnected, dimensions of illicit drug use. The first is related to trying to understand the added value of the discipline from an epidemiological, or societal, perspective. In other terms, to evaluate if and how it completes our current vision about the extent of illicit drug use at the population level, and if it can guide the planning of future prevention measures and drug policies. The second dimension is the criminal one, with a particular focus on the networks which develop around the large demand in illicit drugs. The goal here was to assess if wastewater-based epidemiology, combined to indicators stemming from the epidemiological dimension, could provide additional clues about the structure of drug distribution networks and the size of their market. This research had also an implicit objective, which focused on initiating the path of wastewater- based epidemiology at the Ecole des Sciences Criminelles of the University of Lausanne. This consisted in gathering the necessary knowledge about the collection, preparation, and analysis of wastewater samples and, most importantly, to understand how to interpret the acquired data and produce useful information. In the first phase of this research, it was possible to determine that ammonium loads, measured directly in the wastewater stream, could be used to monitor the dynamics of the population served by the wastewater treatment plant. Furthermore, it was shown that on the long term, the population did not have a substantial impact on consumption patterns measured through wastewater analysis. Focussing on methadone, for which precise prescription data was available, it was possible to show that reliable consumption estimates could be obtained via wastewater analysis. This allowed to validate the selected sampling strategy, which was then used to monitor the consumption of heroin, through the measurement of morphine. The latter, in combination to prescription and sales data, provided estimates of heroin consumption in line with other indicators. These results, combined to epidemiological data, highlighted the good correspondence between measurements and expectations and, furthermore, suggested that the dark figure of heroin users evading harm-reduction programs, which would thus not be measured by conventional indicators, is likely limited. In the third part, which consisted in a collaborative study aiming at extensively investigating geographical differences in drug use, wastewater analysis was shown to be a useful complement to existing indicators. In particular for stigmatised drugs, such as cocaine and heroin, it allowed to decipher the complex picture derived from surveys and crime statistics. Globally, it provided relevant information to better understand the drug market, both from an epidemiological and repressive perspective. The fourth part focused on cannabis and on the potential of combining wastewater and survey data to overcome some of their respective limitations. Using a hierarchical inference model, it was possible to refine current estimates of cannabis prevalence in the metropolitan area of Lausanne. Wastewater results suggested that the actual prevalence is substantially higher compared to existing figures, thus supporting the common belief that surveys tend to underestimate cannabis use. Whilst being affected by several biases, the information collected through surveys allowed to overcome some of the limitations linked to the analysis of cannabis markers in wastewater (i.e., stability and limited excretion data). These findings highlighted the importance and utility of combining wastewater-based epidemiology to existing indicators about drug use. Similarly, the fifth part of the research was centred on assessing the potential uses of wastewater-based epidemiology from a law enforcement perspective. Through three concrete examples, it was shown that results from wastewater analysis can be used to produce highly relevant intelligence, allowing drug enforcement to assess the structure and operations of drug distribution networks and, ultimately, guide their decisions at the tactical and/or operational level. Finally, the potential to implement wastewater-based epidemiology to monitor the use of harmful, prohibited and counterfeit pharmaceuticals was illustrated through the analysis of sibutramine, and its urinary metabolite, in wastewater samples. The results of this research have highlighted that wastewater-based epidemiology is a useful and powerful approach with numerous scopes. Faced with the complexity of measuring a hidden phenomenon like illicit drug use, it is a major addition to the panoply of existing indicators. -- L'épidémiologie basée sur l'analyse des eaux usées (ou, selon sa définition anglaise, « wastewater-based epidemiology ») consiste en l'acquisition d'informations portant sur le mode de vie et l'état de santé d'une population via l'analyse d'échantillons d'eaux usées récoltés à l'entrée des stations d'épuration. Bien qu'il s'agisse d'une discipline récente, elle a vécu des développements importants depuis sa première mise en oeuvre en 2005, notamment dans le domaine de l'analyse des résidus de stupéfiants. Suite aux retombées médiatiques des premiers résultats de ces analyses de métabolites dans les eaux usées, de nombreux scientifiques provenant de différentes disciplines ont rejoint les rangs de cette nouvelle discipline en développant plusieurs axes de recherche distincts. Bien que reconnu pour son coté objectif et révolutionnaire, il était nécessaire d'évaluer sa valeur ajoutée en regard des indicateurs couramment utilisés pour mesurer la consommation de stupéfiants. En se focalisant sur deux dimensions spécifiques de la consommation de stupéfiants, l'objectif principal de cette recherche était focalisé sur l'évaluation de la valeur ajoutée de l'épidémiologie basée sur l'analyse des eaux usées. La première dimension abordée était celle épidémiologique ou sociétale. En d'autres termes, il s'agissait de comprendre si et comment l'analyse des eaux usées permettait de compléter la vision actuelle sur la problématique, ainsi que déterminer son utilité dans la planification des mesures préventives et des politiques en matière de stupéfiants actuelles et futures. La seconde dimension abordée était celle criminelle, en particulier, l'étude des réseaux qui se développent autour du trafic de produits stupéfiants. L'objectif était de déterminer si cette nouvelle approche combinée aux indicateurs conventionnels, fournissait de nouveaux indices quant à la structure et l'organisation des réseaux de distribution ainsi que sur les dimensions du marché. Cette recherche avait aussi un objectif implicite, développer et d'évaluer la mise en place de l'épidémiologie basée sur l'analyse des eaux usées. En particulier, il s'agissait d'acquérir les connaissances nécessaires quant à la manière de collecter, traiter et analyser des échantillons d'eaux usées, mais surtout, de comprendre comment interpréter les données afin d'en extraire les informations les plus pertinentes. Dans la première phase de cette recherche, il y pu être mis en évidence que les charges en ammonium, mesurées directement dans les eaux usées permettait de suivre la dynamique des mouvements de la population contributrice aux eaux usées de la station d'épuration de la zone étudiée. De plus, il a pu être démontré que, sur le long terme, les mouvements de la population n'avaient pas d'influence substantielle sur le pattern de consommation mesuré dans les eaux usées. En se focalisant sur la méthadone, une substance pour laquelle des données précises sur le nombre de prescriptions étaient disponibles, il a pu être démontré que des estimations exactes sur la consommation pouvaient être tirées de l'analyse des eaux usées. Ceci a permis de valider la stratégie d'échantillonnage adoptée, qui, par le bais de la morphine, a ensuite été utilisée pour suivre la consommation d'héroïne. Combinée aux données de vente et de prescription, l'analyse de la morphine a permis d'obtenir des estimations sur la consommation d'héroïne en accord avec des indicateurs conventionnels. Ces résultats, combinés aux données épidémiologiques ont permis de montrer une bonne adéquation entre les projections des deux approches et ainsi démontrer que le chiffre noir des consommateurs qui échappent aux mesures de réduction de risque, et qui ne seraient donc pas mesurés par ces indicateurs, est vraisemblablement limité. La troisième partie du travail a été réalisée dans le cadre d'une étude collaborative qui avait pour but d'investiguer la valeur ajoutée de l'analyse des eaux usées à mettre en évidence des différences géographiques dans la consommation de stupéfiants. En particulier pour des substances stigmatisées, telles la cocaïne et l'héroïne, l'approche a permis d'objectiver et de préciser la vision obtenue avec les indicateurs traditionnels du type sondages ou les statistiques policières. Globalement, l'analyse des eaux usées s'est montrée être un outil très utile pour mieux comprendre le marché des stupéfiants, à la fois sous l'angle épidémiologique et répressif. La quatrième partie du travail était focalisée sur la problématique du cannabis ainsi que sur le potentiel de combiner l'analyse des eaux usées aux données de sondage afin de surmonter, en partie, leurs limitations. En utilisant un modèle d'inférence hiérarchique, il a été possible d'affiner les actuelles estimations sur la prévalence de l'utilisation de cannabis dans la zone métropolitaine de la ville de Lausanne. Les résultats ont démontré que celle-ci est plus haute que ce que l'on s'attendait, confirmant ainsi l'hypothèse que les sondages ont tendance à sous-estimer la consommation de cannabis. Bien que biaisés, les données récoltées par les sondages ont permis de surmonter certaines des limitations liées à l'analyse des marqueurs du cannabis dans les eaux usées (i.e., stabilité et manque de données sur l'excrétion). Ces résultats mettent en évidence l'importance et l'utilité de combiner les résultats de l'analyse des eaux usées aux indicateurs existants. De la même façon, la cinquième partie du travail était centrée sur l'apport de l'analyse des eaux usées du point de vue de la police. Au travers de trois exemples, l'utilisation de l'indicateur pour produire du renseignement concernant la structure et les activités des réseaux de distribution de stupéfiants, ainsi que pour guider les choix stratégiques et opérationnels de la police, a été mise en évidence. Dans la dernière partie, la possibilité d'utiliser cette approche pour suivre la consommation de produits pharmaceutiques dangereux, interdits ou contrefaits, a été démontrée par l'analyse dans les eaux usées de la sibutramine et ses métabolites. Les résultats de cette recherche ont mis en évidence que l'épidémiologie par l'analyse des eaux usées est une approche pertinente et puissante, ayant de nombreux domaines d'application. Face à la complexité de mesurer un phénomène caché comme la consommation de stupéfiants, la valeur ajoutée de cette approche a ainsi pu être démontrée.
Resumo:
The use of data visualization in history leads to contradictory reactions: some are fascinated by its heuristic potential and forget their critical faculties while others reject this practice, suspecting it of hiding explanatory weaknesses. This paper proposes a distinction between demonstration visualization and research visualization, reminding that scholars should not only use data visualization for communication purposes, but also for the research itself. It is particularly in its more complex form that this research visualization category will be approached here: network analysis.
Resumo:
L'encéphalopathie post-anoxique après arrêt cardiaque (AC) est une cause féquente d'admission pour coma en réanimation. Depuis les recommandations de 2003, l'hypothermie thérapeutique (HT) est devenue un standard de traitement après AC et est à l'origine de l'amélioration du pronostic au cours de cette derniere décennie. Les élements prédicteurs de pronostic validés par l'Académie Américaine de Neurologie avant l'ère de l'HT sont devenus moins précis. En effet, l'HT et la sédation retardent la reprise de la réponse motrice et peuvent altérer la valeur prédictive des réflexes du tronc cérébral. Une nouvelle approche est nécessaire pour établir un pronostic après AC et HT. L'enregistrement (pendant l'HTou peu après) d'une activité électroencéphalographique réactive et/ou continue est un bon prédicteur de récupération neurologique favorable après AC. Au contraire, la présence d'un tracé non réactif ou discontinu de type burst-suppression, avec une réponse N20 absente bilatérale aux potentiels évoqués somatosensoriels, sont presqu'à 100 % prédictifs d'un coma irréversible déjà à 48 heures après AC. L'HT modifie aussi la valeur prédictive de l'énolase neuronale spécifique (NSE), principal biomarqueur sérique de la lésion cérébrale post-anoxique. Un réveil avec bonne récupération neurologique a été récemment observé par plusieurs groupes chez des patients présentant des valeurs de NSE>33 μg/L à 48-72 heures : ce seuil ne doit pas être utilisé seul pour guider le traitement. L'imagerie par résonance magnétique de diffusion peut aider à prédire les séquelles neurologiques à long terme. Un réveil chez les patients en coma post-anoxique est de plus en plus observé, malgré l'absence précoce de signes moteurs et une élévation franche des biomarqueurs neuronaux. En 2014, une nouvelle approche multimodale du pronostic est donc nécessaire, pour optimiser la prédiction d'une évolution clinique favorable après AC. Hypoxic-ischemic encephalopathy after cardiac arrest (CA) is a frequent cause of intensive care unit (ICU) admission. Incorporated in all recent guidelines, therapeutic hypothermia (TH) has become a standard of care and has contributed to improve prognosis after CA during the past decade. The accuracy of prognostic predictors validated in 2006 by the American Academy of Neurology before the era of TH is less accurate. Indeed, TH and sedation may delay the recovery of motor response and alter the predictive value of brainstem reflexes. A new approach is needed to accurately establish prognosis after CA and TH. A reactive and/or continuous electroencephalogram background (during TH or shortly thereafter) strongly predicts good outcome. On the contrary, unreactive/spontaneous burst-suppression electroencephalogram pattern, together with absent N20 on somatosensory evoked potentials, is almost 100% predictive of irreversible coma. TH also affects the predictive value of neuronspecific enolase (NSE), the main serum biomarker of postanoxic injury. A good outcome can occur despite NSE levels >33 μg/L, so this cutoff value should not be used alone to guide treatment. Diffusion magnetic resonance imagery may help predict long-term neurological sequelae. Awakening from postanoxic coma is increasingly observed, despite the absence of early motor signs and pathological elevation of NSE. In 2014, a multimodal approach to prognosis is recommended to optimize the prediction of outcome after CA.