936 resultados para Stratégie compensatoire
Resumo:
Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.
Resumo:
Background. Le considérable déclin de la malaria au niveau mondial remet en question la stratégie de chimioprophylaxie pour les voyageurs à destination de pays à risque modéré à faible de malaria. Un consensus international de la meilleure stratégie de prévention reste à trouver. Suivant le mouvement actuel de partage décisionnel, cette étude invite le voyageur au sein du débat comme acteur du processus de décision. Objectifs. Investiguer les préférences des voyageurs à destination de pays à risque modéré à faible de malaria en matière de prévention contre la malaria, en mettant en perspective leur perception du risque et les raisons de leur choix. Méthodologie. Dans la salle d'attente du Centre de Vaccination et Médecine de Voyage, les voyageurs à destination de risque modéré à faible de malaria remplissent un questionnaire et choisissent la méthode de prévention qu'ils préfèrent aidés d'un tableau leur proposant 4 choix possible ; mesure de prévention des piqûres de moustique uniquement, chimioprophylaxie, traitement de réserve seul et traitement de réserve avec test diagnostic rapide. Ils reçoivent aussi une échelle de risque illustrant les risques de malaria et d'effets indésirables des anti-malariques comparés à différents autres risques liés au voyage, inspirée par les palettes de Paling de la Communication Risk Institut. Résultats. De décembre 2012 à décembre 2013, 391 voyageurs on été inclus. 59 (15%) ont choisi la chimioprophylaxie, 116 (30%) un traitement de réserve, 112 (29%) un traitement de réserve avec test rapide diagnostic, 100 (26%) une prévention des piqûre de moustiques uniquement, and 4 (1%) plusieurs alternatives. Les raisons de choisir une chimioprophylaxie étaient la sécurité (42%), l'action préventive (29%), l'efficacité (15%) et la facilité d'utilisation (15%). Les raisons de choisir un traitement de réserve étaient moins de prise de médicament (29%), moins d'effets secondaires de ceux-ci (23%) et le prix (9%). Les voyageurs choisissant la chimioprohylaxie l'avaient plus souvent déjà utilisée par le passé [OR=3.0 (CI 1.7-5.44)], sans différence en terme de profil démographique, caractéristique du voyage ou comportement à risque. Conclusions. Quand interrogés, 85% des voyageurs à destination de pays à risque modéré à faible de malaria préfèrent ne pas prendre la chimioprophylaxie, bien que la plupart des pays la recommande encore. Les raisons avancées sont cohérentes avec leur choix. Les nouvelles recommandations devraient prendre en compte la préférence des voyageurs et inclure un processus de décision partagé.
Resumo:
Les tâches nécessitant des manipulations et des transformations de figures géométriques et de formes, comme les tâches de rotation mentale, donnent lieu à des différences de performance entre hommes et femmes qui restent intrigantes. Plusieurs hypothèses ont été proposées pour expliquer ces différences. La plus récurrente porte sur les différences de stratégie globale vs locale utilisées pour traiter l'information. Bien que cette conjecture soit intéressante, elle reste difficile à opérationnaliser car elle englobe tous les mécanismes cognitifs (acquisition, conservation et récupération de l'information). Ce travail prend la forme d'un retour aux sources dans la mesure où il se base sur des recherches anciennes qui ont montré que les hommes perçoivent significativement mieux que les femmes la verticale et l'horizontale. Il teste l'hypothèse selon laquelle les hommes, comparativement aux femmes, présentent une plus forte indépendance au champ perceptif visuel et sont donc plus susceptibles d'utiliser la verticalité et l'horizontalité pour résoudre une tâche de rotation mentale. Une première série d'expériences s'est penchée sur la perception spatiale pour évaluer son impact sur la résolution d'une tâche impliquant la rotation mentale. Les résultats ont montré que seuls les hommes se référaient à la verticalité et à l'horizontalité pour résoudre la tâche. Une seconde série d'expériences ont investigué l'effet de la présence, ou absence, d'axes directionnels directement liés à une tâche de rotation mentale. Elles ont été menées également en environnement réel afin d'évaluer comment le déplacement actif ou passif, correspondant à un changement de perspective en lieu et place d'une rotation mentale, module la performance des hommes et des femmes. Les résultats n'ont pas mis en évidence de différence sexuelle. Notre hypothèse est vérifiée puisque c'est uniquement lorsque la tâche ne présente pas d'axes orthogonaux évidents mais implicites que seuls les hommes, plus indépendants au champ perceptif visuel que les femmes, utilisent la perception de la verticalité et de l'horizontalité pour améliorer leur compétence en rotation mentale. -- Tasks that require manipulation and transformation of geometric shapes and forms, like tasks of mental rotation and give rise to differences in performance between men and women, remain intriguing. Several hypotheses have been proposed to explain these differences. The most recurring hypothesis addresses differences in global versus local strategies for processing information. While this conjecture is interesting, it remains difficult to study because it encompasses all the cognitive mechanisms (acquisition, retention and output). This work returns to the sources, which are based on earlier research that shows that men are significantly better than women at perceiving verticality and horizontality. It tests the hypothesis according to which men, as compared to women, exhibit a greater independence on the perceptive visual field, and therefore are more susceptible to utilizing the verticality and the horizontality to solve a mental rotation task. A first set of experiments examined spatial perception in order to assess its impact on the resolution of a task involving mental rotation. The results showed that only men referred to the verticality and the horizontality to solve the task. A second series of experiments investigated the effect of a presence, or absence of directional axes directed tied to the task of mental rotation. They were also conducted in a real world environment to evaluate how the active or passive displacement, corresponding to a change in perspective instead of a mental rotation, modulates the performance of men and women. The results did not show sex differences. Our hypothesis is verified: it is only when the task presents no obvious, but implicit orthogonal axes that men, who exhibit a greater independence on the perceptive visual field than women, use the perception of verticality and horizontality to improve their competence in mental rotation.
Resumo:
Dans cette thèse, nous étudions les évolutions des systèmes d'information. Nous nous intéressons plus particulièrement à l'étude des facteurs déclencheurs d'évolution, ce qu'ils représentent et comment ils permettent d'en apprendre d'avantage sur le cycle de vie des systèmes d'information. Pour ce faire, nous avons développé un cadre conceptuel pour l'étude des évolutions qui tient compte non seulement des facteurs déclencheurs d'évolution, mais également de la nature des activités entreprises pour évoluer. Nous avons suivi une approche Design Science pour la conception de ce cadre conceptuel. Selon cette approche, nous avons développé itérativement le cadre conceptuel en l'instanciant puis en l'évaluant afin de raffiner sa conception. Ceci nous a permis de faire plusieurs contributions tant pratiques que théoriques. La première contribution théorique de cette recherche est l'identification de 4 facteurs principaux déclenchant les évolutions. Ces facteurs sont des éléments issus de domaines généralement étudiés séparément. Le cadre conceptuel les rassemble dans un même outil pour l'étude des évolutions. Une autre contribution théorique est l'étude du cycle de vie des systèmes selon ces facteurs. En effet, l'utilisation répétée du cadre conceptuel pour la qualification des évolutions met en lumière les principales motivations des évolutions lors de chaque étape du cycle de vie. En comparant les évolutions de plusieurs systèmes, il devient possible de mettre en évidence des modèles spécifiques d'évolution des systèmes. Concernant les contributions pratiques, la principale concerne le pilotage de l'évolution. Pour un gestionnaire de système d'information, l'application du cadre conceptuel permet de connaître précisément l'allocation réelle des ressources pour une évolution ainsi que la localisation du système dans son cycle de vie. Le cadre conceptuel peut donc aider les gestionnaires dans la planification et la stratégie d'évolution du système. Les modèles d'évolution, identifiés suite à l'application du cadre conceptuel, sont également une aide précieuse pour définir la stratégie de pilotage et les activités à entreprendre lors de la planification des évolutions. Finalement, le cadre conceptuel a fourni les bases nécessaires à l'élaboration d'un tableau de bord pour le suivi du cycle de vie et le pilotage de l'évolution des systèmes d'information.
Resumo:
This study compares the impact of quality management tools on the performance of organisations utilising the ISO 9001:2000 standard as a basis for a quality-management system band those utilising the EFQM model for this purpose. A survey is conducted among 107 experienced and independent quality-management assessors. The study finds that organisations with qualitymanagement systems based on the ISO 9001:2000 standard tend to use general-purpose qualitative tools, and that these do have a relatively positive impact on their general performance. In contrast, organisations adopting the EFQM model tend to use more specialised quantitative tools, which produce significant improvements in specific aspects of their performance. The findings of the study will enable organisations to choose the most effective quality-improvement tools for their particular quality strategy
Resumo:
L'espace du cyclisme se caractérise à la fois par la concurrence entre les cyclistes pour l'obtention des meilleurs classements et celle des organisateurs de course et de l'UCI (Union Cycliste Internationale) pour leure contrôle de ces classements. Cette double concurrence produit une concentration de la valeur des compétitions, permet à l'UCI de jouer un rôle de régulateur et a pour effet de structurer le travail des cyclistes et leur forme d'emploi, avec des conséquences sur leur, spécialement en termes de précarité. Les coureurs n'exercent ainsi que très peu de contrôle sur les principes de classement mais en subissent les effets. Les carrières des cyclistes, leurs contraintes et leurs expériences vont cependant se décliner différemment selon le type d'équipe à laquelle ils appartiennent. Si pour certains d'entre eux, l'équipe offre un accompagnement et sont en condition de pouvoir limiter leur charge de travail, d'autres ne sont pas en mesure de le faire. Face à cette précarité le dopage apparaît comme une stratégie de maintien en emploi.
Resumo:
L'intrigue est une notion polysémique qui a été récemment revisitée par les théories du récit, que certains définissent comme « postclassiques », pour souligner leurs différences par rapport aux paradigmes formalistes. Dans ce nouveau cadre d'analyse, l'intrigue n'est plus seulement conçue comme représentant la logique de l'histoire racontée, mais comme une stratégie discursive visant à engendrer un effet de tension chez le lecteur. A ce titre, l'étude de l'intrigue devient la voie royale pour explorer les liens passionnels qui se nouent entre les récits et leurs lecteurs. L'oeuvre de Ramuz Derborence sert d'illustration à ce que pourrait être un enseignement de la littérature centré sur l'intrigue dans sa définition la plus dynamique et dans son extension la plus large.
Resumo:
La plupart des inhibiteurs de protéines kinases développés en nombre à la suite de l'imatinib partagent avec celui-ci les caractéristiques des médicaments candidats au suivi thérapeutique pharmacologique : importante variabilité pharmacocinétique entre patients, influences de traits pharmacogénétiques et d'atteintes d'organes, potentiel d'interactions médicamenteuses, relations stables entre exposition et efficacité ou toxicité, index thérapeutique restreint. Alors que le profilage génétique des tumeurs ouvre la voie vers une oncologie personnalisée quant au choix des molécules thérapeutiques, le monitoring des concentrations et l'individualisation des posologies devraient assurer que chaque patient est exposé aux concentrations lui garantissant la meilleure efficacité pour le minimum de toxicité. Pour cela, il faut d'abord disposer d'études observationnelles décrivant la pharmacocinétique de population du médicament et les concentrations attendues sous une posologie donnée. Des études pharmacodynamiques doivent aussi déterminer les relations concentration-efficacité-toxicité, dont découlent les cibles d'exposition à viser par le traitement. Sur ces bases, une stratégie rationnelle de monitoring peut être élaborée, puis testée dans des essais cliniques randomisés contrôlés. Les progrès se font attendre dans ce domaine, en raison non seulement du désintérêt des groupes pharmaceutiques, des cliniciens et des autorités, mais aussi des difficultés inhérentes au processus de suivi des concentrations, tel qu'il se pratique aujourd'hui. Des innovations technologiques associant des méthodes de mesure miniaturisées intégrées à des systèmes électroniques et une connexion à des outils informatiques d'assistance à l'interprétation pourraient prochainement mettre ce monitoring à la disposition immédiate des oncologues sur le lieu de consultation.
Resumo:
L'année 2014 a été marquée par de nouvelles acquisitions thérapeutiques en médecine d'urgence.L'estimation de la probabilité d'une néphrolithiase permet d'éviter une imagerie chez les patients à haut risque. L'hypothermie thérapeutique post-arrêt cardiorespiratoire n'a pas de bénéfice par rapport à une stratégie de normothermie contrôlée. Le traitement d'une bronchite aiguë sans signe de gravité par co-amoxicilline ou AINS est inutile. L'adjonction de colchicine au traitement standard de la péricardite aiguë diminue le risque de récidive. L'ajustement du seuil de D-dimères à l'âge permet de réduire le recours à l'imagerie en cas de risque non élevé d'embolie pulmonaire. Enfin, un monitorage invasif précoce n'apporte pas de bénéfice à la prise en charge initiale du choc septique. The year 2014 was marked by new therapeutic acquisitions in emergency medicine. Nephrolithiasis likelihood estimation should avoid imaging in patients at high risk. Therapeutic hypothermia post cardio-respiratory arrest has no benefit compared to a strategy of controlled normothermia. Treatment of acute bronchitis with no signs of severity by coamoxicillin or NSAIDs is useless. Adding colchicine to standard treatment of acute pericarditis reduces the rate of recurrence. The D-dimerthreshold adjustment by age reduces the number of imaging in case of low or intermediate risk of pulmonary embolism. Finally, the speed of the initial management of septic shock is crucial to the outcome of patients, but an early invasive monitoring provides no benefit.
Resumo:
Les femmes migrantes d'Afrique subsaharienne et séropositives cumulent les vulnérabilités. Fondé sur une recherche qualitative menée auprès de 30 femmes atteintes du VIH, cet article se propose d'analyser comment elles investissent les diverses sphères sociales (familiales, professionnelles, communautaires, etc.) et créent différents types de liens. Si le statut légal, l'expérience migratoire, l'origine, la précarité sociale ou le genre tendent à orienter les pratiques de sociabilité, nous montrerons que l'usage du secret comme stratégie de gestion de l'information relative au VIH reste l'élément déterminant dans l'organisation des relations sociales des femmes interrogées. La proximité sociale et l'investissement affectif sont forts dans le milieu médical et associatif, alors que par crainte de stigmatisation, ils le sont moins au sein des communautés africaines, ce qui réduit les possibilités d'entraide et de solidarité. Fortement liée aux représentations négatives du VIH/sida, la pratique du secret conditionne également les relations au sein de la famille et du couple où se mêlent soutien et violence.
Resumo:
La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.
Resumo:
Wastewater-based epidemiology consists in acquiring relevant information about the lifestyle and health status of the population through the analysis of wastewater samples collected at the influent of a wastewater treatment plant. Whilst being a very young discipline, it has experienced an astonishing development since its firs application in 2005. The possibility to gather community-wide information about drug use has been among the major field of application. The wide resonance of the first results sparked the interest of scientists from various disciplines. Since then, research has broadened in innumerable directions. Although being praised as a revolutionary approach, there was a need to critically assess its added value, with regard to the existing indicators used to monitor illicit drug use. The main, and explicit, objective of this research was to evaluate the added value of wastewater-based epidemiology with regards to two particular, although interconnected, dimensions of illicit drug use. The first is related to trying to understand the added value of the discipline from an epidemiological, or societal, perspective. In other terms, to evaluate if and how it completes our current vision about the extent of illicit drug use at the population level, and if it can guide the planning of future prevention measures and drug policies. The second dimension is the criminal one, with a particular focus on the networks which develop around the large demand in illicit drugs. The goal here was to assess if wastewater-based epidemiology, combined to indicators stemming from the epidemiological dimension, could provide additional clues about the structure of drug distribution networks and the size of their market. This research had also an implicit objective, which focused on initiating the path of wastewater- based epidemiology at the Ecole des Sciences Criminelles of the University of Lausanne. This consisted in gathering the necessary knowledge about the collection, preparation, and analysis of wastewater samples and, most importantly, to understand how to interpret the acquired data and produce useful information. In the first phase of this research, it was possible to determine that ammonium loads, measured directly in the wastewater stream, could be used to monitor the dynamics of the population served by the wastewater treatment plant. Furthermore, it was shown that on the long term, the population did not have a substantial impact on consumption patterns measured through wastewater analysis. Focussing on methadone, for which precise prescription data was available, it was possible to show that reliable consumption estimates could be obtained via wastewater analysis. This allowed to validate the selected sampling strategy, which was then used to monitor the consumption of heroin, through the measurement of morphine. The latter, in combination to prescription and sales data, provided estimates of heroin consumption in line with other indicators. These results, combined to epidemiological data, highlighted the good correspondence between measurements and expectations and, furthermore, suggested that the dark figure of heroin users evading harm-reduction programs, which would thus not be measured by conventional indicators, is likely limited. In the third part, which consisted in a collaborative study aiming at extensively investigating geographical differences in drug use, wastewater analysis was shown to be a useful complement to existing indicators. In particular for stigmatised drugs, such as cocaine and heroin, it allowed to decipher the complex picture derived from surveys and crime statistics. Globally, it provided relevant information to better understand the drug market, both from an epidemiological and repressive perspective. The fourth part focused on cannabis and on the potential of combining wastewater and survey data to overcome some of their respective limitations. Using a hierarchical inference model, it was possible to refine current estimates of cannabis prevalence in the metropolitan area of Lausanne. Wastewater results suggested that the actual prevalence is substantially higher compared to existing figures, thus supporting the common belief that surveys tend to underestimate cannabis use. Whilst being affected by several biases, the information collected through surveys allowed to overcome some of the limitations linked to the analysis of cannabis markers in wastewater (i.e., stability and limited excretion data). These findings highlighted the importance and utility of combining wastewater-based epidemiology to existing indicators about drug use. Similarly, the fifth part of the research was centred on assessing the potential uses of wastewater-based epidemiology from a law enforcement perspective. Through three concrete examples, it was shown that results from wastewater analysis can be used to produce highly relevant intelligence, allowing drug enforcement to assess the structure and operations of drug distribution networks and, ultimately, guide their decisions at the tactical and/or operational level. Finally, the potential to implement wastewater-based epidemiology to monitor the use of harmful, prohibited and counterfeit pharmaceuticals was illustrated through the analysis of sibutramine, and its urinary metabolite, in wastewater samples. The results of this research have highlighted that wastewater-based epidemiology is a useful and powerful approach with numerous scopes. Faced with the complexity of measuring a hidden phenomenon like illicit drug use, it is a major addition to the panoply of existing indicators. -- L'épidémiologie basée sur l'analyse des eaux usées (ou, selon sa définition anglaise, « wastewater-based epidemiology ») consiste en l'acquisition d'informations portant sur le mode de vie et l'état de santé d'une population via l'analyse d'échantillons d'eaux usées récoltés à l'entrée des stations d'épuration. Bien qu'il s'agisse d'une discipline récente, elle a vécu des développements importants depuis sa première mise en oeuvre en 2005, notamment dans le domaine de l'analyse des résidus de stupéfiants. Suite aux retombées médiatiques des premiers résultats de ces analyses de métabolites dans les eaux usées, de nombreux scientifiques provenant de différentes disciplines ont rejoint les rangs de cette nouvelle discipline en développant plusieurs axes de recherche distincts. Bien que reconnu pour son coté objectif et révolutionnaire, il était nécessaire d'évaluer sa valeur ajoutée en regard des indicateurs couramment utilisés pour mesurer la consommation de stupéfiants. En se focalisant sur deux dimensions spécifiques de la consommation de stupéfiants, l'objectif principal de cette recherche était focalisé sur l'évaluation de la valeur ajoutée de l'épidémiologie basée sur l'analyse des eaux usées. La première dimension abordée était celle épidémiologique ou sociétale. En d'autres termes, il s'agissait de comprendre si et comment l'analyse des eaux usées permettait de compléter la vision actuelle sur la problématique, ainsi que déterminer son utilité dans la planification des mesures préventives et des politiques en matière de stupéfiants actuelles et futures. La seconde dimension abordée était celle criminelle, en particulier, l'étude des réseaux qui se développent autour du trafic de produits stupéfiants. L'objectif était de déterminer si cette nouvelle approche combinée aux indicateurs conventionnels, fournissait de nouveaux indices quant à la structure et l'organisation des réseaux de distribution ainsi que sur les dimensions du marché. Cette recherche avait aussi un objectif implicite, développer et d'évaluer la mise en place de l'épidémiologie basée sur l'analyse des eaux usées. En particulier, il s'agissait d'acquérir les connaissances nécessaires quant à la manière de collecter, traiter et analyser des échantillons d'eaux usées, mais surtout, de comprendre comment interpréter les données afin d'en extraire les informations les plus pertinentes. Dans la première phase de cette recherche, il y pu être mis en évidence que les charges en ammonium, mesurées directement dans les eaux usées permettait de suivre la dynamique des mouvements de la population contributrice aux eaux usées de la station d'épuration de la zone étudiée. De plus, il a pu être démontré que, sur le long terme, les mouvements de la population n'avaient pas d'influence substantielle sur le pattern de consommation mesuré dans les eaux usées. En se focalisant sur la méthadone, une substance pour laquelle des données précises sur le nombre de prescriptions étaient disponibles, il a pu être démontré que des estimations exactes sur la consommation pouvaient être tirées de l'analyse des eaux usées. Ceci a permis de valider la stratégie d'échantillonnage adoptée, qui, par le bais de la morphine, a ensuite été utilisée pour suivre la consommation d'héroïne. Combinée aux données de vente et de prescription, l'analyse de la morphine a permis d'obtenir des estimations sur la consommation d'héroïne en accord avec des indicateurs conventionnels. Ces résultats, combinés aux données épidémiologiques ont permis de montrer une bonne adéquation entre les projections des deux approches et ainsi démontrer que le chiffre noir des consommateurs qui échappent aux mesures de réduction de risque, et qui ne seraient donc pas mesurés par ces indicateurs, est vraisemblablement limité. La troisième partie du travail a été réalisée dans le cadre d'une étude collaborative qui avait pour but d'investiguer la valeur ajoutée de l'analyse des eaux usées à mettre en évidence des différences géographiques dans la consommation de stupéfiants. En particulier pour des substances stigmatisées, telles la cocaïne et l'héroïne, l'approche a permis d'objectiver et de préciser la vision obtenue avec les indicateurs traditionnels du type sondages ou les statistiques policières. Globalement, l'analyse des eaux usées s'est montrée être un outil très utile pour mieux comprendre le marché des stupéfiants, à la fois sous l'angle épidémiologique et répressif. La quatrième partie du travail était focalisée sur la problématique du cannabis ainsi que sur le potentiel de combiner l'analyse des eaux usées aux données de sondage afin de surmonter, en partie, leurs limitations. En utilisant un modèle d'inférence hiérarchique, il a été possible d'affiner les actuelles estimations sur la prévalence de l'utilisation de cannabis dans la zone métropolitaine de la ville de Lausanne. Les résultats ont démontré que celle-ci est plus haute que ce que l'on s'attendait, confirmant ainsi l'hypothèse que les sondages ont tendance à sous-estimer la consommation de cannabis. Bien que biaisés, les données récoltées par les sondages ont permis de surmonter certaines des limitations liées à l'analyse des marqueurs du cannabis dans les eaux usées (i.e., stabilité et manque de données sur l'excrétion). Ces résultats mettent en évidence l'importance et l'utilité de combiner les résultats de l'analyse des eaux usées aux indicateurs existants. De la même façon, la cinquième partie du travail était centrée sur l'apport de l'analyse des eaux usées du point de vue de la police. Au travers de trois exemples, l'utilisation de l'indicateur pour produire du renseignement concernant la structure et les activités des réseaux de distribution de stupéfiants, ainsi que pour guider les choix stratégiques et opérationnels de la police, a été mise en évidence. Dans la dernière partie, la possibilité d'utiliser cette approche pour suivre la consommation de produits pharmaceutiques dangereux, interdits ou contrefaits, a été démontrée par l'analyse dans les eaux usées de la sibutramine et ses métabolites. Les résultats de cette recherche ont mis en évidence que l'épidémiologie par l'analyse des eaux usées est une approche pertinente et puissante, ayant de nombreux domaines d'application. Face à la complexité de mesurer un phénomène caché comme la consommation de stupéfiants, la valeur ajoutée de cette approche a ainsi pu être démontrée.
Resumo:
Afin de se préparer à la seconde période de mise en oeuvre du protocole de Kyoto (2013-2020), la Confédération a mené une révision totale de la loi fédérale sur la réduction des émissions de CO2, entrée en vigueur au 1er janvier 2013. La Confédération a ainsi renforcé ses objectifs en matière de lutte contre le changement climatique et a introduit de nouveaux instruments d'intervention pour y parvenir. Depuis lors, la nécessité politique de réduire les émissions de gaz à effet de serre s'est encore accentuée. Lors de la COP21 en décembre 2015 à Paris, la Suisse s'est engagée à réduire ses émissions de gaz à effet de serre de 50 % par rapport à 1990 à l'horizon 2030. En outre, la stratégie énergétique 2050 ambitionne de ramener les émissions de CO2 par habitant dans une fourchette de 1 à 1,5 tonne d'ici à 2050, contre 5,3 tonnes par habitant à l'heure actuelle. Cette recherche mandatée par l'OFEV analyse l'impact de la politique climatique sur le comportement des acteurs économiques et leurs réactions face aux instruments publics introduits pour réduire les émissions de CO2. L'étude, réalisée au cours de l'année 2015, questionne la cohérence du dispositif institutionnel actuel ainsi que sa capacité à stimuler l'action des acteurs économiques en matière de réduction des émissions de CO2. Elle livre un diagnostic de l'efficacité, de l'effectivité et de la désirabilité de la politique publique menée par la Confédération.
Resumo:
Contexte : Parmi les infections nosocomiales, le Staphylocoque méticilline résistant (MRSA) est le germe pathogène le plus couramment identifié dans les hôpitaux du monde entier. La stratégie de contrôle des MRSA au CHUV implique le dépistage des patients à risque. Avec la méthode de dépistage par culture, le temps d'attente est de plusieurs jours. Ceci occasionne des problèmes dans la gestion des flux des patients, principalement à cause des mesures d'isolement. Pour réduire le temps d'attente, l'hôpital envisage d'utiliser une méthode de diagnostic rapide par "polymerase chain reaction" (PCR). Méthodologie : Les données concernant les dépistages réalisés, dans trois services durant l'année 2007, ont été utilisées. Le nombre de jours d'isolement a d'abord été déterminé par patient et par service. Ensuite une analyse des coûts a été effectuée afin d'évaluer la différence des coûts entre les deux méthodes pour chaque service. Résultats : Le principal impact économique de la méthode par PCR dépend principalement du nombre de jours d'isolements évités par rapport à la méthode de culture. Aux services de soins, l'analyse a été menée sur 192 dépistages. Quand la différence de jours d'isolement est de deux jours, le coût des dépistages diminue de plus de 12kCHF et le nombre de jours d'isolement diminue de 384 jours. Au centre interdisciplinaire des urgences, sur 96 dépistages, le gain potentiel avec la méthode PCR est de 6kCHF avec une diminution de 192 jours d'isolement. Aux soins intensifs adultes, la méthode de dépistage par PCR est la méthode la plus rentable avec une diminution des coûts entre 4KCHF et 20K CHF et une diminution des jours d'isolement entre 170 et 310. Pour les trois services analysés, les résultats montrent un rapport coût-efficacité favorable pour la méthode PCR lorsque la diminution des jours d'isolement est supérieure à 1.3 jour. Quand la différence de jours d'isolement est inférieure à 1.3, il faut tenir compte d'autres paramètres, comme le coût de matériel qui doit être supérieur à 45.5 CHF, et du nombre d'analyses par dépistage, qui doit être inférieur à 3, pour que la PCR reste l'alternative la plus intéressante. Conclusions : La méthode par PCR montre des avantages potentiels importants, tant économiques qu'organisationnels qui limitent ou diminuent les contraintes liées à la stratégie de contrôle des MRSA au CHUV. [Auteure, p. 3]
Resumo:
[...] L'objectif de ce travail est d'exposer les notions de "compétence sanitaire" (Health Literacy) et d' "autonomisation" (Empowerment) dans un contexte de prise en charge pédiatrique des enfants de migrants. Nous sommes convaincus que ces deux concepts émergeants dans le domaine de la santé et appliqués au contexte migratoire constituent, sur les plans économiques et de management, des éléments qui peuvent mener à terme à : i) une réduction mesurable des coûts de la santé et ii) une porte d'entrée efficace dans un processus d'intégration - dont l'importance est reconnue sur le plan économique - des migrants dans leur pays d'accueil. Tout au long de ce travail, il apparaîtra comme évident que des données propres à la prise en charge sanitaire pédiatrique des enfants de migrants font actuellement souvent défaut, a fortiori l'application des concepts de compétence sanitaire et d'autonomisation pour cette part de la société. Nous le percevons comme une opportunité de mettre en place les conditions cadres pour combler ce vide. Nous poserons tout d'abord le cadre de ce mémoire au travers de la présentation des concepts de compétence sanitaire et d'autonomisation, en mettant en avant leurs aspects économiques dans les systèmes de santé actuels, en particulier en Suisse. Nous présenterons dans les chapitres 2 et 3 d'une part des données concernant l'état de santé de la population migrante en Suisse et d'autre part la stratégie mise en place au niveau fédéral dans le domaine " migration et santé 2008-2013 ". Le chapitre 4 nous permettra de présenter un "case study" que nous avons intégré à notre travail afin d'apporter des éléments plus concrets aux notions théoriques abordées dans ce mémoire. Nous avons choisi de nous concentrer sur l'Hôpital de l'Enfance de Lausanne (HEL) parce que l'HEL nous semble présenter un cas de structure hospitalière qui fait un effort remarquable de prise en charge médico-psycho-sociale des enfants de migrants. Le chapitre 5, en conclusion, aura pour objectif principal de soutenir que l'inclusion d'une dimension de management/gestion de la santé (représenté ici par l'autonomisation et la compétence sanitaire) introduirait une valeur ajoutée remarquable à l'effort constructif consenti sur le plan médico-social décrit au chapitre précédent. [Auteure, p. 4-5]