999 resultados para choix alimentaires
Resumo:
«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-‐variabilité) et entre les traces digitales de donneurs différents (inter-‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-‐variabilité des résidus était significativement plus basse que l'inter-‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-‐variability) and between fingermarks of different donors (inter-‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-‐variability of the fingermark residue was significantly lower than the inter-‐variability, but that it was possible to reduce both kind of variability using different statistical pre-‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.
Resumo:
Cette rubrique présente les résultats d'une revue systématique récente telle que publiée dans la Cochrane Library (www.thecochranelibrary.com). Volontairement limité à un champ de recherche circonscrit, cet article reflète l'état actuel des connaissances de ce domaine. Il ne s'agit donc pas de recommandations pour guider la prise en charge d'une problématique clinique considérée dans sa globalité (guidelines). Les auteurs de ce résumé se basent sur la revue systématique et ne remettent pas en question le choix des articles inclus dans la revue. Scénario: Vous suivez un patient de 71 ans connu pour un diabète et une hypertension bien contrôlés, ainsi qu'une insuffisance rénale chronique de longue date, progressive, actuellement sévère (créatinine à 267 mmol/l, taux de filtration glomérulaire estimé (TFGe) à 21 ml/min/1,73 m2). Son état général est bon, son poids est stable et il ne présente pas de symptômes urémiques. Question: Faut-il adresser ce patient à un néphrologue ?
Resumo:
En prenant pour objet la migration des médecins d'Afrique vers trois pays d'Europe (Royaume-Uni, France, Suisse), cet article vise à dépasser une approche s'intéressant de manière exclusive aux facteurs de la décision de migrer. Il prend en considération l'ensemble de la carrière du migrant et notamment les modes d'insertion professionnelle dans le pays d'installation. Ce faisant, l'article vise à appréhender ce qu'il y a de commun dans les motifs du choix de partir et ce qu'il y a de profondément différent dans les situations d'arrivée. L'analyse des contextes nationaux étudiés met en évidence l'importance considérable de l'héritage politico-institutionnel du pays d'arrivée quant à la possibilité d'exercer une carrière médicale.
Resumo:
The research described in this thesis examines the characteristics, the benefits and the challenges associated with the implementation of management accounting systems in the field of Corporate Social Responsibility (CSR). Applied to the CSR context, management accounting relates to the identification, elaboration and communication of information about an organization's interactions with the society and the environment. Based on this information, firms are able to make decisions to achieve social and environmental objectives and provide evidence justifying the benefits and the costs of such actions. The study begins by focusing on green management and exploring the characteristics of Environmental Management Accounting (EMA) systems within firms. The first chapter informs the reader about the growing body of EMA research and reveals unexplored relevant aspects that need to be further investigated. The work also emphasizes the importance of developing new theoretical hypotheses and appropriate research designs to empirically tackle new aspects of EMA and gain understanding on the use of these practices. Subsequently, given the acknowledged importance of control systems in influencing the behaviour of individuals within organizations, the remaining two chapters of the dissertation focus on the functioning of CSR-linked incentives assigned to employees in the form of compensation plans. The second chapter examines the determinants influencing corporate provision of incentives for the attainment of environmental targets. Empirical analysis of a sample of international firms reveals that companies are likely to use green incentives as mechanisms to increase the efficacy in contracting with their employees as well as to respond to social influences. Finally, the third chapter investigates the effectiveness of contracting associated with the use of CSR-linked executive compensation. Empirical analysis of a sample of US-based companies shows that corporate choice to tie senior executives' pay to CSR targets promotes the firm's CSR performance. Cette thèse examine les caractéristiques, avantages et défis associés à l'utilisation des systèmes de contrôle de gestion dans le domaine de la Responsabilité Sociale des Entreprises (RSE). Dans le contexte de la RSE, les activités du contrôle de gestion impliquent l'identification, l'élaboration et la communication d'informations qui concernent les interactions des organisations avec la société et l'environnement. Avec ces informations les entreprises sont en mesure de prendre des décisions visant à atteindre les objectifs sociaux et environnementaux de l'organisation et de documenter les bénéfices et coûts de ces actions. Dès le début, la thèse se concentre sur les caractéristiques des systèmes de contrôle de gestion environnementale au sein des entreprises. Le premier chapitre passe en revue la littérature existante et révèle des aspects inexplorés. Pour ce faire, le travail suggère le développement de nouvelles théories ainsi que l'utilisation de méthodes appropriées. Ces dernières doivent permettre d'aborder empiriquement de nouveaux aspects des systèmes de contrôle environnemental et faciliter la compréhension sur l'utilisation de ces pratiques. Considérant l'importance des systèmes de contrôle pour influencer le comportement des individus au sein des organisations, la suite du travail se concentre sur le fonctionnement des contrats de rémunération des employées liées aux résultats de la RSE. Plus particulièrement, le deuxième chapitre examine les facteurs qui influencent la décision des entreprises d'assigner des objectifs environnementaux aux employées. L'analyse empirique d'un échantillon d'entreprises internationales montre que les entreprises sont susceptibles d'utiliser des mécanismes incitatifs écologiques pour augmenter l'efficacité des contrats ainsi que pour répondre aux influences sociales. Finalement, le troisième chapitre analyse l'efficacité des contrats de rémunération des dirigeants liés aux résultats de la RSE. L'analyse empirique d'un échantillon de sociétés américaines indique que le choix de l'entreprise de lier la rémunération des dirigeants à des objectifs de la RSE favorise la performance RSE de l'organisation.
Resumo:
Pendant quatre semaines, les étudiant(e)s en médecine de 3e année de l'Université de Lausanne mènent une enquête dans la communauté sur le sujet de leur choix. L'objectif de ce module est de faire découvrir aux futurs médecins les déterminants non biomédicaux de la santé, de la maladie et de l'exercice de la médecine : les styles de vie, les facteurs psychosociaux et culturels, l'environnement, les décisions politiques, les contraintes économiques, les questions éthiques, etc. Par groupes de cinq, les étudiant(e)s commencent par définir une question de recherche originale et en explorent la littérature scientifique. Leur travail de recherche les amène à entrer en contact avec le réseau d'acteurs de la communauté concernés, professionnels ou associations de patients dont ils analysent les rôles et influences respectives. Chaque groupe est accompagné par un(e) tuteur(trice), enseignant(e) de la Faculté de biologie et de médecine de l'Université de Lausanne. Les étudiant(e)s présentent la synthèse de leurs travaux pendant un congrès de deux jours à la fin du module. Quatre travaux parmi les plus remarquables ont été choisis pour être publiés dans la Revue Médicale Suisse et Primary Care.
Resumo:
Le français a d'abord été la langue de choix de Vassilis Alexakis. Mais dès la publication de Tαλγό (1980), son premier roman composé d'abord en grec, sa langue maternelle, l'écriture de chacun de ses textes a été soumise au dilemme du choix de la langue. En réaction aux réserves, rares mais bouleversantes, suscitées en France par sa pratique littéraire translingue, Alexakis a décidé d'écrire, en français, un texte autobiographique intitulé Paris-Athènes (1989). Afin d'entrelacer l'histoire de l'écriture du texte et le récit rétrospectif de sa singulière trajectoire littéraire, Alexakis a dû dépasser la "diglossie littéraire" - le grec étant la langue de la mémoire et le français celle, ludique, du présent - qui caractérisait jusque-là ses écrits. La réussite de son "explication avec la langue française" a été déterminante pour la suite de son parcours d'écrivain. Elle témoigne également du rôle central de l'autobiographie dans le phénomène du translinguisme littéraire.
Resumo:
La plupart des inhibiteurs de protéines kinases développés en nombre à la suite de l'imatinib partagent avec celui-ci les caractéristiques des médicaments candidats au suivi thérapeutique pharmacologique : importante variabilité pharmacocinétique entre patients, influences de traits pharmacogénétiques et d'atteintes d'organes, potentiel d'interactions médicamenteuses, relations stables entre exposition et efficacité ou toxicité, index thérapeutique restreint. Alors que le profilage génétique des tumeurs ouvre la voie vers une oncologie personnalisée quant au choix des molécules thérapeutiques, le monitoring des concentrations et l'individualisation des posologies devraient assurer que chaque patient est exposé aux concentrations lui garantissant la meilleure efficacité pour le minimum de toxicité. Pour cela, il faut d'abord disposer d'études observationnelles décrivant la pharmacocinétique de population du médicament et les concentrations attendues sous une posologie donnée. Des études pharmacodynamiques doivent aussi déterminer les relations concentration-efficacité-toxicité, dont découlent les cibles d'exposition à viser par le traitement. Sur ces bases, une stratégie rationnelle de monitoring peut être élaborée, puis testée dans des essais cliniques randomisés contrôlés. Les progrès se font attendre dans ce domaine, en raison non seulement du désintérêt des groupes pharmaceutiques, des cliniciens et des autorités, mais aussi des difficultés inhérentes au processus de suivi des concentrations, tel qu'il se pratique aujourd'hui. Des innovations technologiques associant des méthodes de mesure miniaturisées intégrées à des systèmes électroniques et une connexion à des outils informatiques d'assistance à l'interprétation pourraient prochainement mettre ce monitoring à la disposition immédiate des oncologues sur le lieu de consultation.
Resumo:
Depuis les études princeps de phase III de non-inf ériorité comparant les anticoagulants oraux directs (AOD) à la warfarine, de nombreuses études ont essayé de répondre à la question de l'efficacité et de la sécurité d'utilisation des AOD chez les patients âgés. Ces études sont des études de sous-groupes complémentaires issues des études princeps ou des études de pharmacovigilance en postmarketing utilisant des données médicoéconomiques à grande échelle. De nombreux biais, par définition, peuvent entraîner une distorsion des résultats dans de telles études, rendant leur interprétation prudente. Aucun essai randomisé contrôlé n'a à ce jour comparé les AOD à la warfarine chez des patients de 80 ans ou plus et a fortiori chez des sujets âgés fragiles. En pratique, chez le patient âgé fragile, il n'y a pas de consensus quant au choix des anticoagulants à prescrire en cas de fibrillation atriale (FA) et de la maladie thromboembolique veineuse (MTEV). Quant au choix de l'AOD à privilégier chez le sujet âgé, faute d'études de comparaison directe disponibles à ce jour, il apparaît difficile de se prononcer. Toutefois, les données disponibles, tant sur le plan pharmacologique que celles issues des études complémentaires, semblent montrer que le dabigatran offre un profil bénéfice/risque moins favorable que les autres AOD. Néanmoins, les résultats prometteurs de l'idarucizumab, antidote du dabigatran, pourraient contribuer à améliorer ce rapport à l'avenir.
Resumo:
L'État s'appuie aujourd'hui sur le secteur privé pour déployer les nombreuses activités qui sont les siennes et cela suivant de multiples formules : en tant que client ou partenaire, dans le cadre de collaborations ou au sein de structures communes (sociétés d'économie mixte), voire dans le modèle de la privatisation. La 18e Journée de droit administratif, organisée à Lausanne le 10 février 2015, a ainsi choisi pour thème une modalité particulière de cette collaboration, fréquente aujourd'hui, celle de la délégation d'activités étatiques au secteur privé. Elle implique un transfert - partiel - de responsabilité de l'État au bénéficiaire de la délégation, pour un ensemble d'activités déterminées ; tel est le cas par exemple de celles accomplies par une caisse maladie dans le domaine de l'assurance-maladie sociale, une association interprofessionnelle investie de tâches de formation professionnelle ou encore le concessionnaire d'une ligne de transport public. Dans un premier temps, l'ouvrage revisite brièvement le phénomène dans une approche non juridique. Il s'agit en particulier d'en repérer les justifications (managériales ou, plus largement, économiques) et de prendre la mesure des objections qu'on lui oppose, notamment sur le plan démocratique. Le coeur de l'analyse porte sur le régime juridique applicable à ce mécanisme. Après une introduction générale, les principaux thèmes liés à la délégation de tâches publiques sont abordés. Comment, tout d'abord, prend naissance la relation entre l'administration et le délégataire, par quel type d'acte (décision, contrat) et selon quelle procédure intervient le choix du délégataire ? Sont traitées ensuite des relations de ce dernier avec les particuliers, plus spécialement sous l'angle des droits fondamentaux. L'ouvrage présente en outre le cadre juridique pertinent lorsque la délégation porte respectivement sur une activité étatique classique (ministérielle ; non économique) ou, au contraire, sur une activité à caractère économique ; les divergences, on le verra, sont nombreuses entre ces deux grandes catégories de délégations. Une étude sectorielle, consacrée au cas spécifique de la délégation aux hôpitaux (qui porte plus précisément sur les prestations de soins aigus en milieu stationnaire, à charge de l'assurance-maladie de base), complète la perspective. Le présent ouvrage dresse en définitive un « état de la question » du droit suisse sur le thème très actuel de la délégation ; une synthèse finale permet encore de nouer la gerbe dans une approche comparative.
Resumo:
Résumé : Cet article propose une analyse du vécu de personnes électrosensibles et de la façon dont ils ont répondu aux douleurs chroniques. L'approche proposée vise à relater les stratégies de réponse à ces formes de morbidité en valorisant les récits des protagonistes ; plus particulièrement, l'accent est mis sur les dimensions cognitives, sensorielles, émotionnelles, relationnelles et existentielles engendrées par une symptomatologie qui ne correspond à aucune explication scientifique causale. Leurs récits mettent ainsi en perspective des trajectoires de vie avec les conditions sociales, médicales et somatiques dans lesquelles est menée leur quête de santé. Mettre l'accent sur les expériences quotidiennes qui fondent la représentation que les électrosensibles ont de leurs troubles permet de comprendre les raisons et les modalités des formes d'auto-éviction qu'ils pratiquent. La réalisation des modalités de l'auto-éviction sont alors interprétées comme l'aboutissement d'une trajectoire de vie, produit de choix intuitifs - et non stratégiques - basés sur des sensibilités singulières. Il en résulte un regard anthropologique invitant à interpréter l'expérience des douleurs chroniques au prisme des rapports sensibles que les individus entretiennent avec leur corps, les autres et l'environnement. Abstract: This paper analyses the lived experience of electrosensitive people and the way they reply to chronic pain. The approach aims to relate the way they reply to this kind of morbidity by highlighting their narratives; especially by emphasising the cognitive, the sensorial, the emotional, the relational and the existential dimensions produced by a symptomatology that is not scientifically explained. Their narratives put into perspective their life trajectories with the social, medical and somatic conditions that lead their health quest. Focusing on the ordinary, that shapes the representations the electrosensitive people have of their troubles, would allow us to understand the reasons and modalities of auto-eviction practices. Auto-eviction achievement is interpreted as a life trajectory fulfilment produced by intuitive choices - nonstrategic - based on singular sensitivities. As a result, it invites an anthropological interpretation of chronic pain experiences built on the sensitive relationships that individuals have with their body, the others and the environment.
Resumo:
Cet article analyse le regain d'attractivité des villes pour les catégories socio-professionnelles supérieures dans le cas de trois centres urbains suisses. Les choix résidentiels étudiés sont étroitement liés à la recherche d'un capital spatial spécifique de la part de ménages qui placent les questions de proximité et de mobilité au coeur de leur décision de vivre en ville, qui adoptent un comportement multimodal, et qui apparaissent attachés à la proximité tout en étant potentiellement hypermobiles (à l'instar de certains pendulaires interurbains). Cette dotation en capital spatial s'explique par des stratégies d'adaptation (afin de concilier les différentes facettes de la vie quotidienne) et par certaines valeurs (notamment environnementales). Le choix résidentiel apparaît dans l'ensemble comme un choix stratégique, la localisation centrale et le potentiel de mobilité qui lui est associé devant permettre aux ménages de rendre compatible contraintes spatio-temporelles et modes de vie.
Resumo:
La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.
Resumo:
Introduction: Ski mountaineering is an increasingly popular winter sport and leisure activity. Elite athletes practice this sport with a high level of professionalism, but so far little scientific evidence was available to support their approach. The main aim of this work was to develop a specific knowledge about ski mountaineering, allowing providing specific recommendations for the practice. Methods: First we investigated energy cost (EC) and vertical energy cost (ECv). These two parameters were estimated with oxygen uptake, at different gradients (7 to 33%) and different speeds (2 to 7 km·∙h-‐1) on treadmill with roller skis and on snow with ski mountaineering gear. Then we assessed energy expenditure (EE) during a long duration ski mountaineering event by measuring heart rate and altitude all along the race and associating them with an EE. The EE was compared with the energy intake during the race. Hydration level was estimated by comparing body weight immediately before and after the race. The energy intake during the 4 days preceding the race was estimated with food diaries and compared with the guidelines. Results/discussion: EC and ECv of ski mountaineering were very high and varied with gradient and speed. ECv decreased between 7 and 33% and with increasing speed at steep gradients. For a 5 h 51 ± 53 min race, the mean EE was 22.6 ± 2.6 MJ. The energy intake covered 20 ± 7% of the EE and was about 14% lower than the recommendations. No significant dehydration was observed. For the longest (53 km) race, we can extrapolate the EE as about 40 MJ. Before the race the energy intake and especially the carbohydrate intake were far under the guidelines (83 ± 17% and 46 ± 13% of the recommendations). Conclusions: EC and EE of ski mountaineering are very high. To minimize the EE to reach the top of a mountain and optimize the performance, the skier should choose a steep gradient and combine this steep gradient with a fast speed. The CHO intake should be increased during but, also before the race while the fluid intake seemed to be adequate. -- Introduction : Le ski-‐alpinisme est un sport d'hiver qui s'est particulièrement développé durant les dernières décennies : de plus en plus de personnes pratiquent cette activité dans un cadre de loisirs et de plus en plus d'athlètes d'élite prennent part à des compétitions qu'ils préparent avec un haut degré de professionnalisme. Cependant, les connaissances scientifiques restent limitées et les athlètes ne disposent pas de recommandations précises et spécifiques. Le but principal de ce travail est donc de développer un savoir spécifique sur le ski-‐alpinisme, ce qui devrait permettre d'établir des recommandations pour la pratique. Méthode : Le coût énergétique (CE) et le coût énergétique vertical (CEv) du ski-‐alpinisme ont été calculés en mesurant la consommation d'oxygène à différentes pentes (7 à 33%) et vitesses (2 à 6.8 km·∙h-‐1) sur tapis roulant avec des skis à roulettes et sur le terrain avec des skis de randonnée. Ensuite, la dépense énergétique (DE) d'une course de ski-‐alpinisme de longue durée a été évaluée en mesurant la fréquence cardiaque et l'altitude en continu. La DE a été comparée à l'énergie consommée par les ravitaillements. Des carnets alimentaires ont permis d'estimer la consommation d'énergie (boissons et nourriture) pendant les 4 jours précédant la course. Résultats/discussion : Le CE du ski-‐alpinisme est très élevé. Le CEv diminue entre 2 et 6 km·∙h-‐1 et entre 7 et 33%. Pour une course de 5 h 51 ± 53 min (26 km), la DE était de 22.6 ± 2.6 MJ, alors que, pour le grand parcours de la Patrouille des Glaciers (53 km), elle serait d'environ 40 MJ. La consommation d'énergie, pendant le parcours de 26 km, couvrait 20 ± 7% de la DE et était inférieure de 14% aux recommandations, alors qu'aucune déshydratation significative n'était constatée. Les jours précédant la course, la consommation d'énergie et surtout d'hydrates de carbone était bien inférieure aux quantités recommandées (83 ± 17% et 46 ± 13% des recommandations). Conclusion : Le CE et la DE étaient très élevés. Pour minimiser la dépense lors d'une ascension, il faut combiner pente et vitesse élevées. La consommation d'hydrates de carbone devrait être massivement augmentée avant et pendant la course, alors que l'hydratation semble adéquate.
Resumo:
Résumé L'oeil est exposé à de multiples facteurs environnementaux qui influent sur le développement visuel, le confort et la santé visuelle. Une exposition excessive à la lumière solaire peut causer des pathologies de la surface oculaire et de la rétine, mais une exposition insuffisante à la lumière du jour pourrait être incriminée dans l'apparition ou la progression de la myopie. Les lumières artificielles, LED en particulier, comportent un risque accru de phototoxicité rétinienne. L'augmentation importante de la prévalence des allergies oculaires pourrait être liée à la multiplication des polluants environnementaux, comme la fumée de tabac, les dérivés de combustion de carburants ou les phtalates. Enfin, certains compléments alimentaires peuvent jouer un rôle protecteur dans certains types d'atteintes oculaire, rétinienne en particulier. Abstract The eyes are exposed to multiple environmental factors, which affect visual development, comfort, and visual health. While overexposure to sunlight can cause ocular surface and retinal pathologies, insufficient exposure to daylight could significantly contribute to myopia progression. New artificial lights, namely LED, have a higher risk of retinal phototoxicity, and could alter ocular circadian rhythm. The significant increase of prevalence of ocular allergies could be caused by the proliferation of environmental polluting substances, like tobacco smoke, fuel combustion by-products, or phtalates, which are found in many types of plastics. Finally, some dietary supplements could play a protective role in certain types of ocular pathologies, namely retinal pathologies.
Resumo:
Wastewater-based epidemiology consists in acquiring relevant information about the lifestyle and health status of the population through the analysis of wastewater samples collected at the influent of a wastewater treatment plant. Whilst being a very young discipline, it has experienced an astonishing development since its firs application in 2005. The possibility to gather community-wide information about drug use has been among the major field of application. The wide resonance of the first results sparked the interest of scientists from various disciplines. Since then, research has broadened in innumerable directions. Although being praised as a revolutionary approach, there was a need to critically assess its added value, with regard to the existing indicators used to monitor illicit drug use. The main, and explicit, objective of this research was to evaluate the added value of wastewater-based epidemiology with regards to two particular, although interconnected, dimensions of illicit drug use. The first is related to trying to understand the added value of the discipline from an epidemiological, or societal, perspective. In other terms, to evaluate if and how it completes our current vision about the extent of illicit drug use at the population level, and if it can guide the planning of future prevention measures and drug policies. The second dimension is the criminal one, with a particular focus on the networks which develop around the large demand in illicit drugs. The goal here was to assess if wastewater-based epidemiology, combined to indicators stemming from the epidemiological dimension, could provide additional clues about the structure of drug distribution networks and the size of their market. This research had also an implicit objective, which focused on initiating the path of wastewater- based epidemiology at the Ecole des Sciences Criminelles of the University of Lausanne. This consisted in gathering the necessary knowledge about the collection, preparation, and analysis of wastewater samples and, most importantly, to understand how to interpret the acquired data and produce useful information. In the first phase of this research, it was possible to determine that ammonium loads, measured directly in the wastewater stream, could be used to monitor the dynamics of the population served by the wastewater treatment plant. Furthermore, it was shown that on the long term, the population did not have a substantial impact on consumption patterns measured through wastewater analysis. Focussing on methadone, for which precise prescription data was available, it was possible to show that reliable consumption estimates could be obtained via wastewater analysis. This allowed to validate the selected sampling strategy, which was then used to monitor the consumption of heroin, through the measurement of morphine. The latter, in combination to prescription and sales data, provided estimates of heroin consumption in line with other indicators. These results, combined to epidemiological data, highlighted the good correspondence between measurements and expectations and, furthermore, suggested that the dark figure of heroin users evading harm-reduction programs, which would thus not be measured by conventional indicators, is likely limited. In the third part, which consisted in a collaborative study aiming at extensively investigating geographical differences in drug use, wastewater analysis was shown to be a useful complement to existing indicators. In particular for stigmatised drugs, such as cocaine and heroin, it allowed to decipher the complex picture derived from surveys and crime statistics. Globally, it provided relevant information to better understand the drug market, both from an epidemiological and repressive perspective. The fourth part focused on cannabis and on the potential of combining wastewater and survey data to overcome some of their respective limitations. Using a hierarchical inference model, it was possible to refine current estimates of cannabis prevalence in the metropolitan area of Lausanne. Wastewater results suggested that the actual prevalence is substantially higher compared to existing figures, thus supporting the common belief that surveys tend to underestimate cannabis use. Whilst being affected by several biases, the information collected through surveys allowed to overcome some of the limitations linked to the analysis of cannabis markers in wastewater (i.e., stability and limited excretion data). These findings highlighted the importance and utility of combining wastewater-based epidemiology to existing indicators about drug use. Similarly, the fifth part of the research was centred on assessing the potential uses of wastewater-based epidemiology from a law enforcement perspective. Through three concrete examples, it was shown that results from wastewater analysis can be used to produce highly relevant intelligence, allowing drug enforcement to assess the structure and operations of drug distribution networks and, ultimately, guide their decisions at the tactical and/or operational level. Finally, the potential to implement wastewater-based epidemiology to monitor the use of harmful, prohibited and counterfeit pharmaceuticals was illustrated through the analysis of sibutramine, and its urinary metabolite, in wastewater samples. The results of this research have highlighted that wastewater-based epidemiology is a useful and powerful approach with numerous scopes. Faced with the complexity of measuring a hidden phenomenon like illicit drug use, it is a major addition to the panoply of existing indicators. -- L'épidémiologie basée sur l'analyse des eaux usées (ou, selon sa définition anglaise, « wastewater-based epidemiology ») consiste en l'acquisition d'informations portant sur le mode de vie et l'état de santé d'une population via l'analyse d'échantillons d'eaux usées récoltés à l'entrée des stations d'épuration. Bien qu'il s'agisse d'une discipline récente, elle a vécu des développements importants depuis sa première mise en oeuvre en 2005, notamment dans le domaine de l'analyse des résidus de stupéfiants. Suite aux retombées médiatiques des premiers résultats de ces analyses de métabolites dans les eaux usées, de nombreux scientifiques provenant de différentes disciplines ont rejoint les rangs de cette nouvelle discipline en développant plusieurs axes de recherche distincts. Bien que reconnu pour son coté objectif et révolutionnaire, il était nécessaire d'évaluer sa valeur ajoutée en regard des indicateurs couramment utilisés pour mesurer la consommation de stupéfiants. En se focalisant sur deux dimensions spécifiques de la consommation de stupéfiants, l'objectif principal de cette recherche était focalisé sur l'évaluation de la valeur ajoutée de l'épidémiologie basée sur l'analyse des eaux usées. La première dimension abordée était celle épidémiologique ou sociétale. En d'autres termes, il s'agissait de comprendre si et comment l'analyse des eaux usées permettait de compléter la vision actuelle sur la problématique, ainsi que déterminer son utilité dans la planification des mesures préventives et des politiques en matière de stupéfiants actuelles et futures. La seconde dimension abordée était celle criminelle, en particulier, l'étude des réseaux qui se développent autour du trafic de produits stupéfiants. L'objectif était de déterminer si cette nouvelle approche combinée aux indicateurs conventionnels, fournissait de nouveaux indices quant à la structure et l'organisation des réseaux de distribution ainsi que sur les dimensions du marché. Cette recherche avait aussi un objectif implicite, développer et d'évaluer la mise en place de l'épidémiologie basée sur l'analyse des eaux usées. En particulier, il s'agissait d'acquérir les connaissances nécessaires quant à la manière de collecter, traiter et analyser des échantillons d'eaux usées, mais surtout, de comprendre comment interpréter les données afin d'en extraire les informations les plus pertinentes. Dans la première phase de cette recherche, il y pu être mis en évidence que les charges en ammonium, mesurées directement dans les eaux usées permettait de suivre la dynamique des mouvements de la population contributrice aux eaux usées de la station d'épuration de la zone étudiée. De plus, il a pu être démontré que, sur le long terme, les mouvements de la population n'avaient pas d'influence substantielle sur le pattern de consommation mesuré dans les eaux usées. En se focalisant sur la méthadone, une substance pour laquelle des données précises sur le nombre de prescriptions étaient disponibles, il a pu être démontré que des estimations exactes sur la consommation pouvaient être tirées de l'analyse des eaux usées. Ceci a permis de valider la stratégie d'échantillonnage adoptée, qui, par le bais de la morphine, a ensuite été utilisée pour suivre la consommation d'héroïne. Combinée aux données de vente et de prescription, l'analyse de la morphine a permis d'obtenir des estimations sur la consommation d'héroïne en accord avec des indicateurs conventionnels. Ces résultats, combinés aux données épidémiologiques ont permis de montrer une bonne adéquation entre les projections des deux approches et ainsi démontrer que le chiffre noir des consommateurs qui échappent aux mesures de réduction de risque, et qui ne seraient donc pas mesurés par ces indicateurs, est vraisemblablement limité. La troisième partie du travail a été réalisée dans le cadre d'une étude collaborative qui avait pour but d'investiguer la valeur ajoutée de l'analyse des eaux usées à mettre en évidence des différences géographiques dans la consommation de stupéfiants. En particulier pour des substances stigmatisées, telles la cocaïne et l'héroïne, l'approche a permis d'objectiver et de préciser la vision obtenue avec les indicateurs traditionnels du type sondages ou les statistiques policières. Globalement, l'analyse des eaux usées s'est montrée être un outil très utile pour mieux comprendre le marché des stupéfiants, à la fois sous l'angle épidémiologique et répressif. La quatrième partie du travail était focalisée sur la problématique du cannabis ainsi que sur le potentiel de combiner l'analyse des eaux usées aux données de sondage afin de surmonter, en partie, leurs limitations. En utilisant un modèle d'inférence hiérarchique, il a été possible d'affiner les actuelles estimations sur la prévalence de l'utilisation de cannabis dans la zone métropolitaine de la ville de Lausanne. Les résultats ont démontré que celle-ci est plus haute que ce que l'on s'attendait, confirmant ainsi l'hypothèse que les sondages ont tendance à sous-estimer la consommation de cannabis. Bien que biaisés, les données récoltées par les sondages ont permis de surmonter certaines des limitations liées à l'analyse des marqueurs du cannabis dans les eaux usées (i.e., stabilité et manque de données sur l'excrétion). Ces résultats mettent en évidence l'importance et l'utilité de combiner les résultats de l'analyse des eaux usées aux indicateurs existants. De la même façon, la cinquième partie du travail était centrée sur l'apport de l'analyse des eaux usées du point de vue de la police. Au travers de trois exemples, l'utilisation de l'indicateur pour produire du renseignement concernant la structure et les activités des réseaux de distribution de stupéfiants, ainsi que pour guider les choix stratégiques et opérationnels de la police, a été mise en évidence. Dans la dernière partie, la possibilité d'utiliser cette approche pour suivre la consommation de produits pharmaceutiques dangereux, interdits ou contrefaits, a été démontrée par l'analyse dans les eaux usées de la sibutramine et ses métabolites. Les résultats de cette recherche ont mis en évidence que l'épidémiologie par l'analyse des eaux usées est une approche pertinente et puissante, ayant de nombreux domaines d'application. Face à la complexité de mesurer un phénomène caché comme la consommation de stupéfiants, la valeur ajoutée de cette approche a ainsi pu être démontrée.