1000 resultados para pour-on
Resumo:
RESUME Cette thèse se situe à la frontière de la recherche en économie du développement et du commerce international et vise à intégrer les apports de l'économie géographique. Le premier chapitre s'intéresse aux effets de création et de détournement de commerce au sein des accords régionaux entre pays en développement et combine une approche gravitaire et une estimation non paramétrique des effets de commerce. Cette analyse confirme un effet de commerce non monotone pour six accords régionaux couvrant l'Afrique, l'Amérique Latine et l'Asie (AFTA, CAN, CACM, CEDEAO, MERCO SUR et SADC) sur la période 1960-1996. Les accords signés dans les années 90 (AFTA, CAN, MERCOSUR et SADC) semblent avoir induis une amélioration du bien-être de leurs membres mais avec un impact variable sur le reste du monde, tandis que les accords plus anciens (CEDEAO et CACM) semblent montrer que les effets de commerce et de bien-être se réduisent pour finir par s'annuler à mesure que le nombre d'années de participation des Etats membres augmente. Le deuxième chapitre pose la question de l'impact de la géographie sur les échanges Sud-Sud. Ce chapitre innove par rapport aux méthodes classiques d'estimation en dérivant une équation de commerce à partir de l'hypothèse d'Armington et en intégrant une fonction de coût de transport qui prend en compte la spécificité des pays de l'UEMOA. Les estimations donnent des effets convaincants quant au rôle de l'enclavement et des infrastructures: deux pays enclavés de l'UEMOA commercent 92% moins que deux autres pays quelconques, tandis que traverser un pays de transit au sein de l'espace UEMOA augmente de 6% les coûts de transport, et que bitumer toutes les routes inter-Etat de l'Union induirait trois fois plus de commerce intra-UEMOA. Le chapitre 3 s'intéresse à la persistance des différences de développement au sein des accords régionaux entre pays en développement. Il montre que la géographie différenciée des pays du Sud membres d'un accord induit un impact asymétrique de celui-ci sur ses membres. Il s'agit d'un modèle stylisé de trois pays dont deux ayant conclu un accord régional. Les résultats obtenus par simulation montrent qu'une meilleure dotation en infrastructure d'un membre de l'accord régional lui permet d'attirer une plus grande part industrielle à mesure que les coûts de transport au sein de l'accord régional sont baissés, ce qui conduit à un développement inégal entre les membres. Si les niveaux d'infrastructure domestique de transport sont harmonisés au sein des pays membres de l'accord d'intégration, leurs parts industrielles peuvent converger au détriment des pays restés hors de l'union. Le chapitre 4 s'intéresse à des questions d'économie urbaine en étudiant comment l'interaction entre rendements croissants et coûts de transport détermine la localisation des activités et des travailleurs au sein d'un pays ou d'une région. Le modèle développé reproduit un fait stylisé observé à l'intérieur des centres métropolitains des USA: sur une période longue (1850-1990), on observe une spécialisation croissante des centres urbains et de leurs périphéries associée à une évolution croissante puis décroissante de la population des centres urbains par rapport à leurs périphéries. Ce résultat peut se transférer dans un contexte en développement avec une zone centrale et une zone périphérique: à mesure que l'accessibilité des régions s'améliore, ces régions se spécialiseront et la région principale, d'abord plus importante (en termes de nombre de travailleurs) va finir par se réduire à une taille identique à celle de la région périphérique.
Resumo:
The present prospective study, with a five-year follow-up, presents an extensive psychiatric and educational assessment of an adolescent population (N = 30) in the age range 14-20, suffering from several psychiatric disorders, though apt to follow a normal academic program. The residential settings where the study took place provide both psychiatric and schooling facilities. In this environment, what is the effectiveness of long-term hospitalization? Are there any criteria for predicting results? After discharge, could social adjustments difficulties be prevented? Assessment instruments are described and the results of one preliminary study are presented. The actual data seems to confirm the impact of the special treatment facilities combining schooling and psychiatric settings on the long term outcome of adolescents.
Resumo:
INTRODUCTION: urinary incontinence (UI) is a phenomenon with high prevalence in hospitalized elderly patients, effecting up to 70% of patients requiring long term care. However, despite the discomfort it causes and its association with functional decline, it seems to be given insufficient attention by nurses in geriatric care. OBJECTIVES: to assess the prevalence of urinary incontinence in geriatric patients at admission and the level of nurse involvement as characterized by the explicit documentation of UI diagnosis in the patient's record, prescription of nursing intervention, or nursing actions related to UI. METHODS: cross-sectional retrospective chart review. One hundred cases were randomly selected from those patients 65 years or older admitted to the geriatric ward of a university hospital. The variables examined included: total and continence scores on the Measure of Functional Independence (MIF), socio-demographic variables, presence of a nursing diagnosis in the medical record, prescription of or documentation of a nursing intervention related to UI. RESULTS: the prevalence of urinary incontinence was 72 % and UI was positively correlated with a low MIF score, age and status of awaiting placement. Of the examined cases, nursing diagnosis of UI was only documented in 1.4 % of cases, nursing interventions were prescribed in 54 % of cases, and at least one nursing intervention was performed in 72 % of cases. The vast majority of the interventions were palliative. DISCUSSION: the results on the prevalence of IU are similar to those reported in several other studies. This is also the case in relation to nursing interventions. In this study, people with UI were given the same care regardless of their MIF score MIF, age or gender. One limitation of this study is that it is retrospective and therefore dependent on the quality of the nursing documentation. CONCLUSIONS: this study is novel because it examines UI in relation to nursing interventions. It demonstrates that despite a high prevalence of UI, the general level of concern for nurses remains relatively low. Individualized care is desirable and clinical innovations must be developed for primary and secondary prevention of UI during hospitalization.
Resumo:
Le cytomégalovirus (CMV) est le pathogène viral le plus important après transplantation d'organe. Le risque de développer une maladie à CMV chez les patients transplantés dépend d'une combinaison de facteurs de l'hôte et de facteurs viraux. Par exemple, il est bien établi que le status sérologique à CMV du donneur et du receveur est un facteur de risque très important pour développer une maladie à CMV, notamment chez le sous-groupe de patients donneurs positifs / receveurs négatifs (D+/R-). Par contre, il n'est pas complètement élucidé si des polymorphismes viraux spécifiques peuvent influencer l'évolution en la réponse thérapeutique chez des patients avec une infection à CMV. Nous avons évalué le rôle des différents génotypes de la glycoprotéine Β (gB) du CMV sur l'évolution clinique et virologique de la maladie à CMV chez des patients transplantés d'organe sous traitement antiviral.¦Pour ce faire, nous avons étudié 239 patients transplantés d'organe inclus dans une étude multicentrique évaluant deux médicaments antiviraux utilisés comme traitement de la maladie à CMV. Le génotypage de la gB du CMV a été réalisé en utilisant une PCR quantitative en temps réel au début du traitement antiviral. Les polymorphismes de la gB du CMV permettent la discrimination de quatre génotypes distincts (gBl, gB2, gB3 et gB4). Nous avons défini une infection mixte comme la présence simultanée de plus d'un génotype chez un patient avec maladie à CMV.¦La prévalence des différents génotypes de la gB a été 26% pour la gBl, 10% pour la gB2, 10% pour la gB3, et 5% pour la gB4, alors que les infections mixtes étaient présentes dans 49% des cas. Les patients D+/R+ présentaient plus fréquemment une infection mixte que les patients D+/R- (40% vs 12%, ρ <0.001). Les patients avec une infection mixte présentaient une médiane de la charge virale à CMV plus élevée et un temps d'éradication virale plus long comparé à des patients avec une infection par un génotype unique (p=0.005 et p=0.026, respectivement). Dans un modèle multivarié, les infections mixtes étaient un prédicteur important de l'échec de l'éradication de virus au jour 21 du début du traitement antiviral (rapport de côtes entre l'infection mixte vs. infection par un génotype unique = 2.66, intervalle de confiance à 95%= 1.31 à 5.38, p= 0.007). Aucun effet du génotype gB sur le développement d'une récidive clinique ou virologique de l'infection à CMV a été observé.¦Ces résultats indiquent qu'aucun génotype spécifique de la gB ne semble conférer un avantage de virulence au CMV. Cependant, les infections mixtes avec plusieurs génotypes de la gB sont associées à une charge virale plus élevée et à un retard de l'éradication virale suite au traitement antiviral.
Resumo:
OBJECTIVES: Studies of small area variations of health care utilization are more and more frequent. Such variations are often considered to be an indication of variations in the quality of medical care. The variations in the rate of operations for hip fractures are among the lowest studied to date, due to the fact that a consensus exists concerning this surgery. Our objective is to examine these variations within the context of relatively small and heterogeneous districts. METHOD: Based on anonymous computerized data on public hospital stays, this study describes the variations in population rates (crude and standardized) of operations for hip fracture among the health districts of the Canton of Vaud for the period from 1986 to 1991. District populations vary from 22,000 to 164,000. Using the extremal quotient (EQ), the importance of these variations was determined. RESULTS: The study population consists of 2363 cases, of which 78% are women. Mean age is 80.4 for women and 70.6 for men. Standardized rates of operation for hip fracture per 100,000 in the Canton Vaud for the years 1986 to 1991 are, respectively: 56; 67; 86; 91; 89 and 94. The EQ for the years 1986 to 1991 are respectively: 8.2; 4.0; 3.5; 2.7; 1.9 and 1.9. The high EQ, especially for the earlier years, are contrary to the initial premise of absence of variation. The progressive implementation in the Canton Vaud of VESKA medical statistics could play a role, as could the small size of many of the districts, with resultant instability of rates. CONCLUSIONS: Considering the wide variations shown here for an operation hardly regarded as subject to variations, it is important to exercise caution in interpreting published data of small area variations.
Resumo:
Summary Due to their conic shape and the reduction of area with increasing elevation, mountain ecosystems were early identified as potentially very sensitive to global warming. Moreover, mountain systems may experience unprecedented rates of warming during the next century, two or three times higher than that records of the 20th century. In this context, species distribution models (SDM) have become important tools for rapid assessment of the impact of accelerated land use and climate change on the distribution plant species. In my study, I developed and tested new predictor variables for species distribution models (SDM), specific to current and future geographic projections of plant species in a mountain system, using the Western Swiss Alps as model region. Since meso- and micro-topography are relevant to explain geographic patterns of plant species in mountain environments, I assessed the effect of scale on predictor variables and geographic projections of SDM. I also developed a methodological framework of space-for-time evaluation to test the robustness of SDM when projected in a future changing climate. Finally, I used a cellular automaton to run dynamic simulations of plant migration under climate change in a mountain landscape, including realistic distance of seed dispersal. Results of future projections for the 21st century were also discussed in perspective of vegetation changes monitored during the 20th century. Overall, I showed in this study that, based on the most severe A1 climate change scenario and realistic dispersal simulations of plant dispersal, species extinctions in the Western Swiss Alps could affect nearly one third (28.5%) of the 284 species modeled by 2100. With the less severe 61 scenario, only 4.6% of species are predicted to become extinct. However, even with B1, 54% (153 species) may still loose more than 80% of their initial surface. Results of monitoring of past vegetation changes suggested that plant species can react quickly to the warmer conditions as far as competition is low However, in subalpine grasslands, competition of already present species is probably important and limit establishment of newly arrived species. Results from future simulations also showed that heavy extinctions of alpine plants may start already in 2040, but the latest in 2080. My study also highlighted the importance of fine scale and regional. assessments of climate change impact on mountain vegetation, using more direct predictor variables. Indeed, predictions at the continental scale may fail to predict local refugees or local extinctions, as well as loss of connectivity between local populations. On the other hand, migrations of low-elevation species to higher altitude may be difficult to predict at the local scale. Résumé La forme conique des montagnes ainsi que la diminution de surface dans les hautes altitudes sont reconnues pour exposer plus sensiblement les écosystèmes de montagne au réchauffement global. En outre, les systèmes de montagne seront sans doute soumis durant le 21ème siècle à un réchauffement deux à trois fois plus rapide que celui mesuré durant le 20ème siècle. Dans ce contexte, les modèles prédictifs de distribution géographique de la végétation se sont imposés comme des outils puissants pour de rapides évaluations de l'impact des changements climatiques et de la transformation du paysage par l'homme sur la végétation. Dans mon étude, j'ai développé de nouvelles variables prédictives pour les modèles de distribution, spécifiques à la projection géographique présente et future des plantes dans un système de montagne, en utilisant les Préalpes vaudoises comme zone d'échantillonnage. La méso- et la microtopographie étant particulièrement adaptées pour expliquer les patrons de distribution géographique des plantes dans un environnement montagneux, j'ai testé les effets d'échelle sur les variables prédictives et sur les projections des modèles de distribution. J'ai aussi développé un cadre méthodologique pour tester la robustesse potentielle des modèles lors de projections pour le futur. Finalement, j'ai utilisé un automate cellulaire pour simuler de manière dynamique la migration future des plantes dans le paysage et dans quatre scénarios de changement climatique pour le 21ème siècle. J'ai intégré dans ces simulations des mécanismes et des distances plus réalistes de dispersion de graines. J'ai pu montrer, avec les simulations les plus réalistes, que près du tiers des 284 espèces considérées (28.5%) pourraient être menacées d'extinction en 2100 dans le cas du plus sévère scénario de changement climatique A1. Pour le moins sévère des scénarios B1, seulement 4.6% des espèces sont menacées d'extinctions, mais 54% (153 espèces) risquent de perdre plus 80% de leur habitat initial. Les résultats de monitoring des changements de végétation dans le passé montrent que les plantes peuvent réagir rapidement au réchauffement climatique si la compétition est faible. Dans les prairies subalpines, les espèces déjà présentes limitent certainement l'arrivée de nouvelles espèces par effet de compétition. Les résultats de simulation pour le futur prédisent le début d'extinctions massives dans les Préalpes à partir de 2040, au plus tard en 2080. Mon travail démontre aussi l'importance d'études régionales à échelle fine pour évaluer l'impact des changements climatiques sur la végétation, en intégrant des variables plus directes. En effet, les études à échelle continentale ne tiennent pas compte des micro-refuges, des extinctions locales ni des pertes de connectivité entre populations locales. Malgré cela, la migration des plantes de basses altitudes reste difficile à prédire à l'échelle locale sans modélisation plus globale.
Resumo:
En 1981, le gouvernement de l'Alberta a amélioré la surveillance de la pointe sud « South Peak » de la montagne Turtle, sur la frontière sud du glissement Frank de 1903. Le programme de surveillance vise à comprendre les taux de déformation des fissures larges et profondes sur « South Peak », et à prédire une seconde avalanche rocheuse sur la montagne. Le programme de surveillance consiste à installer un complément de points statiques et de stations suivies à distance, qui sont mesurés périodiquement. Des données climatiques, microsismiques et de déformation sont recueillies automatiquement à intervalles journaliers, et sont archivées. À la fin des années 1980, le financement pour le développement du programme de surveillance a cessé et quelques installations se sont détériorées. Entre mai 2004 et septembre 2006, des lectures sur les points de surveillance encore fonctionnels ont été compilées et interprétées. De plus, les lectures prélevées auparavant ont été réinterprétées à partir des connaissances récentes sur les modèles de mouvement à court terme et les influences climatiques. Ces observations ont été comparées à des récentes observations aériennes d'un modèle digital d'élévation, provenant de « light detection and ranging (LiDAR) », et des photos de terrain, afin d'estimer plus précisément les taux, l'étendue et la distribution des mouvements pour les derniers 25 ans.
Resumo:
Platelet P2YI2 receptor inhibition with clopidogrel, prasugrel or ticagrelor plays a key role to prevent recurrent ischaemic events after percutaneous coronary intervention in acute coronary syndromes or elective settings. The degree of platelet inhibition depends on the antiplatelet medication used and is influenced by clinical and genetic factors. A concept of therapeutic window exists. On one side, efficient anti-aggregation is required in order to reduce cardio-vascular events. On the other side, an excessive platelet inhibition represents a risk of bleeding complications. This article describes the current knowledge about some platelet function tests and genetic tests and summarises their role in the clinical practice.
Resumo:
Differences in efficacy and safety of drugs among patients are a recognized problem in pharmacotherapy. The reasons are multifactorial and, therefore, the choice of a drug and its dosage for a particular patient based on different clinical and genetic factors is suggested to improve the clinical outcome. Four drugs are currently used for the treatment of Alzheimer's disease: three acetylcholinesterase inhibitors (donepezil, galantamine, rivastigmine) and the N-methyl-D-aspartate-antagonist memantine. For these drugs, a high interindividual variability in plasma levels was observed, which might influence the response to treatment. The main objective of this thesis was to provide a better understanding of clinical and genetic factors affecting the plasma levels of antidementia drugs. Furthermore, the relationship between plasma levels, genetic variations and side effects was assessed. For this purpose, a pharmacogenetic study was conducted including 300 patients from a naturalistic clinical setting. Analytical methods for the simultaneous measurement of antidementia drugs in plasma have been developed and validated using liquid chromatography methods coupled with mass spectrometry detection. Presently, these methods are used in the therapeutic drug monitoring service of our laboratory. The routine use of therapeutic drug monitoring for antidementia drugs cannot yet be recommended with the available data, but it may be beneficial for some patients in special clinical cases such as insufficient treatment response, side effects or drug interactions. Donepezil and galantamine are extensively metabolized by the liver enzymes cytochromes P450 (CYP) 2D6 and 3A and are substrates of the drug transporter P-glycoprotein. The relationship of variations in genes affecting the activity of these metabolic enzymes and drug transporter (CYP2D6, CYP3A, POR, NR1I2, ABCB1) with donepezil and galantamine plasma levels was investigated. The CYP2D6 genotype appeared to be the major genetic factor involved in the pharmacokinetics of these two drugs. Thus, CYP2D6 poor metabolizers demonstrated significantly higher drug plasma levels than extensive metabolizers. Additionally, in the donepezil study population, the frequency of side effects was significantly increased in poor metabolizers. Lower donepezil plasma levels were observed in ultra rapid metabolizers, which might expose those patients to the risk of non-response. Memantine is mainly eliminated unchanged by the kidney, with implication of tubular secretion by renal transporters. A population pharmacokinetic model was developed to quantify the effects of clinical factors and genetic variations in renal cation transporters (SLC22A1/2/5, SLC47A1, ABCB1), and nuclear receptors (NR1I2, NR1I3, PPARG) involved in transporter expression, on memantine plasma levels. In addition to the renal function and gender, a genetic variation in the nuclear receptor Pregnane-X-Receptor (NR1I2) significantly affected memantine elimination. These findings suggest that an individualized therapy approach for antidementia drugs, taking into account clinical characteristics and genetic background of a patient, might increase efficacy and safety of the treatment. - Les différences interindividuelles dans l'efficacité et la tolérance des médicaments sont un problème connu en pharmacothérapie. Les raisons sont multiples, et le choix du médicament et de la dose, basé sur des facteurs cliniques et génétiques spécifiques au patient, peut contribuer à améliorer la réponse clinique. Quatre médicaments sont couramment utilisés dans le traitement de la maladie d'Alzheimer : trois inhibiteurs de l'acétylcholinestérase (donépézil, galantamine, rivastigmine) et un antagoniste du récepteur N-méthyl-D-aspartate, la mémantine. Une forte variabilité interindividuelle dans les taux plasmatiques de ces quatre composés a été observée, ce qui pourrait influencer la réponse au traitement. L'objectif principal de ce travail de thèse est de mieux comprendre les facteurs cliniques et génétiques influençant les taux des médicaments pro-cognitifs. En outre, des associations entre les taux, la variabilité génétique et les effets secondaires ont été recherchées. Dans ce but, 300 patients sous traitement avec un médicament pro-cognitif ont été recrutés pour une étude pharmacogénétique. Des méthodes de dosage simultané de médicaments pro-cognitifs par chromatographie liquide couplée à la spectrométrie de masse ont été développées et validées. Ces méthodes sont actuellement utilisées dans le service de suivi thérapeutique de notre unité. Malgré le fait qu'un suivi des taux sanguins des pro-cognitifs ne puisse pas encore être recommandé en routine, un dosage peut être utile dans des cas cliniques spécifiques, comme une réponse insuffisante, une intolérance ou une interaction médicamenteuse. Le donépézil et la galantamine sont fortement métabolisés par les cytochromes P450 (CYP) 2D6 et 3A, et sont également substrats du transporteur P-glycoprotéine. Les associations entre les polymorphismes génétiques de ces enzymes, cofacteur, récepteur nucléaire et transporteur (CYP2D6, CYP3A, POR, NR1I2, ABCB1) et les taux de donépézil et de galantamine ont été étudiées. Le génotype du CYP2D6 a été montré comme le facteur génétique majeur impliqué dans la pharmacocinétique de ces deux médicaments. Ainsi, les métaboliseurs déficients du CYP2D6 ont démontré des taux plasmatiques significativement plus élevés comparé aux bons métaboliseurs. De plus, dans la population traitée avec le donépézil, la fréquence des effets secondaires était plus élevée chez les métaboliseurs déficients. Des taux plasmatiques bas ont été mesurés chez les métaboliseurs ultra-rapides traités avec le donépézil, ce qui pourrait être un facteur de risque à une non-réponse au traitement. La mémantine est principalement éliminée sous forme inchangée par les reins, et partiellement par sécrétion tubulaire grâce à des transporteurs rénaux. Un modèle de cinétique de population a été développé pour quantifier les effets des différents facteurs cliniques et de la variabilité génétique des transporteurs rénaux (SLC22A1/2/5, SLC47A1, ABCB1) et des récepteurs nucléaires (NR1I2, NR1I3, PPARG, impliqués dans l'expression des transporteurs) sur les taux plasmatiques de mémantine. En plus de la fonction rénale et du genre, une variation génétique dans le récepteur nucléaire Pregnane-X-Receptor (NR1I2) a montré une influence significative sur l'élimination de la mémantine. Ces résultats suggèrent qu'une approche thérapeutique individualisée, prenant en compte des facteurs cliniques et génétiques du patient, pourrait améliorer l'efficacité et la sécurité du traitement pro-cognitif.
Resumo:
Nous présontons l'étalonnage d'un test mnésique de recognition dans un échantillon de 180 adultes francophones de la Suisse Romande. Le test comprend trois formes utilisant un matériel verbal (mots) ou non verbal (visages ou paysages). Une attention particulière est accordée à l'âge dans la présentation des résultats. Celui-ci affecte plus précocement et plus intensément la performance aux formes non verbales qu'à la forme verbale du test. Il induit également une importante augmentation du nombre de fausses reconnaissances pour les formes non verbales.
Resumo:
RESUME : Dans de nombreux environnements professionnels, des travailleurs sont exposés à des bioaérosols, que ce soit des bactéries, champignons, virus ou fragments de microorganismes. Ces bioaérosols peuvent être responsables de maladies infectieuses (p.ex. légionellose), ou de maladies non infectieuses (touchant principalement les voies respiratoires). Cependant, pour une majorité des bioaérosols, les relations entre une exposition à une certaine dose et les effets sur la santé humaine sont peu connues. Ce manque de connaissances étant dû principalement à une absence de méthodes adéquates permettant de quantifier cette exposition. La real-time quantitative PCR (Q-PCR) est un outil basé sur la quantification du DNA dont le potentiel de quantification des bioaérosols dans des environnements professionnels n'a pas été exploré. Le but de ce travail est de développer une méthode de Q-PCR permettant de quantifier des bioaérosols - en particulier des bactéries - et d'appliquer ces techniques pour des mesures préventives sur les lieux de travail. Dans ce travail, la Q-PCR a été appliquée à 1a quantification de pathogènes, de groupes taxonomiques spécifiques et de la charge bactérienne totale dans des environnements de travail, stations d'épuration et élevages industriels de volailles. Nous avons montré que la Q-PCR : 1) est capable de quantifier des pathogènes difficilement cultivables si ceux-ci sont présents en concentration importante, 2) a le potentiel pour être un outil performant dans l'étude des communautés bactériennes présentes dans l'air d'environnements professionnels, 3) est aussi performante que le comptage total des bactéries par DAPI pour quantifier 1a charge bactérienne totale et est donc une alternative prometteuse aux techniques culture-dépendantes. La Q-PCR pourrait être utilisée afin d'établir des relations doses-réponses pour la charge bactérienne ; soit dans des populations de travailleurs hautement exposés (p.ex. les éleveurs de volailles), soit en exposant des cellules à des concentrations de bioaérosols mesurées par Q-PCR. ABSTRACT : Many workers are exposed to bioaerosols such as bacteria, fungi, viruses or fragments of microorganisms. These bioaerosols can be responsible of infectious (e.g. legionellosis) or non infectious diseases (mainly respiratory symptoms). However, for a majority of them, the relationship between exposure and effects on human health is not clearly established. This is mainly due to the lack of valid quantitative assessment methods. Real-time quantitative PCR (Q-PCR) is a tool based on the quantification of DNA, of which the potential for the quantification of bioaerosols in work environments has not yet been explored. The aim of this work was to develop a Q-PCR method permitting to quantify bioaerosols -mainly bacteria and to apply those techniques in occupational environments. In this work, Q-PCR was applied to the quantification of pathogens, of specific taxonomic groups and of the total bacterial load in two different occupational settings, namely wastewater treatment plants and poultry houses. We showed that Q-PCR : 1) is capable of quantifying difficult to cultivate pathogens; when they are present at high concentrations, 2) has the potential to be a useful tool for studying bacterial communities in the air of work environments, 3) is as efficient as epifluorescence for the quantification of total bacterial load, and is a promising alternative to the culture-dependent methods. Q-PCR could be used to establish doses-responses relationships for bacterial load, either in populations of highly exposed workers such as poultry farmers, or by exposing cells to concentrations of bioaerosols quantified with Q-PCR.
Resumo:
Rapport de synthèse Cette thèse consiste en trois essais sur les stratégies optimales de dividendes. Chaque essai correspond à un chapitre. Les deux premiers essais ont été écrits en collaboration avec les Professeurs Hans Ulrich Gerber et Elias S. W. Shiu et ils ont été publiés; voir Gerber et al. (2006b) ainsi que Gerber et al. (2008). Le troisième essai a été écrit en collaboration avec le Professeur Hans Ulrich Gerber. Le problème des stratégies optimales de dividendes remonte à de Finetti (1957). Il se pose comme suit: considérant le surplus d'une société, déterminer la stratégie optimale de distribution des dividendes. Le critère utilisé consiste à maximiser la somme des dividendes escomptés versés aux actionnaires jusqu'à la ruine2 de la société. Depuis de Finetti (1957), le problème a pris plusieurs formes et a été résolu pour différents modèles. Dans le modèle classique de théorie de la ruine, le problème a été résolu par Gerber (1969) et plus récemment, en utilisant une autre approche, par Azcue and Muler (2005) ou Schmidli (2008). Dans le modèle classique, il y a un flux continu et constant d'entrées d'argent. Quant aux sorties d'argent, elles sont aléatoires. Elles suivent un processus à sauts, à savoir un processus de Poisson composé. Un exemple qui correspond bien à un tel modèle est la valeur du surplus d'une compagnie d'assurance pour lequel les entrées et les sorties sont respectivement les primes et les sinistres. Le premier graphique de la Figure 1 en illustre un exemple. Dans cette thèse, seules les stratégies de barrière sont considérées, c'est-à-dire quand le surplus dépasse le niveau b de la barrière, l'excédent est distribué aux actionnaires comme dividendes. Le deuxième graphique de la Figure 1 montre le même exemple du surplus quand une barrière de niveau b est introduite, et le troisième graphique de cette figure montre, quand à lui, les dividendes cumulés. Chapitre l: "Maximizing dividends without bankruptcy" Dans ce premier essai, les barrières optimales sont calculées pour différentes distributions du montant des sinistres selon deux critères: I) La barrière optimale est calculée en utilisant le critère usuel qui consiste à maximiser l'espérance des dividendes escomptés jusqu'à la ruine. II) La barrière optimale est calculée en utilisant le second critère qui consiste, quant à lui, à maximiser l'espérance de la différence entre les dividendes escomptés jusqu'à la ruine et le déficit au moment de la ruine. Cet essai est inspiré par Dickson and Waters (2004), dont l'idée est de faire supporter aux actionnaires le déficit au moment de la ruine. Ceci est d'autant plus vrai dans le cas d'une compagnie d'assurance dont la ruine doit être évitée. Dans l'exemple de la Figure 1, le déficit au moment de la ruine est noté R. Des exemples numériques nous permettent de comparer le niveau des barrières optimales dans les situations I et II. Cette idée, d'ajouter une pénalité au moment de la ruine, a été généralisée dans Gerber et al. (2006a). Chapitre 2: "Methods for estimating the optimal dividend barrier and the probability of ruin" Dans ce second essai, du fait qu'en pratique on n'a jamais toute l'information nécessaire sur la distribution du montant des sinistres, on suppose que seuls les premiers moments de cette fonction sont connus. Cet essai développe et examine des méthodes qui permettent d'approximer, dans cette situation, le niveau de la barrière optimale, selon le critère usuel (cas I ci-dessus). Les approximations "de Vylder" et "diffusion" sont expliquées et examinées: Certaines de ces approximations utilisent deux, trois ou quatre des premiers moments. Des exemples numériques nous permettent de comparer les approximations du niveau de la barrière optimale, non seulement avec les valeurs exactes mais également entre elles. Chapitre 3: "Optimal dividends with incomplete information" Dans ce troisième et dernier essai, on s'intéresse à nouveau aux méthodes d'approximation du niveau de la barrière optimale quand seuls les premiers moments de la distribution du montant des sauts sont connus. Cette fois, on considère le modèle dual. Comme pour le modèle classique, dans un sens il y a un flux continu et dans l'autre un processus à sauts. A l'inverse du modèle classique, les gains suivent un processus de Poisson composé et les pertes sont constantes et continues; voir la Figure 2. Un tel modèle conviendrait pour une caisse de pension ou une société qui se spécialise dans les découvertes ou inventions. Ainsi, tant les approximations "de Vylder" et "diffusion" que les nouvelles approximations "gamma" et "gamma process" sont expliquées et analysées. Ces nouvelles approximations semblent donner de meilleurs résultats dans certains cas.
Resumo:
The spatial resolution visualized with hydrological models and the conceptualized images of subsurface hydrological processes often exceed resolution of the data collected with classical instrumentation at the field scale. In recent years it was possible to increasingly diminish the inherent gap to information from point like field data through the application of hydrogeophysical methods at field-scale. With regards to all common geophysical exploration techniques, electric and electromagnetic methods have arguably to greatest sensitivity to hydrologically relevant parameters. Of particular interest in this context are induced polarisation (IP) measurements, which essentially constrain the capacity of a probed subsurface region to store an electrical charge. In the absence of metallic conductors the IP- response is largely driven by current conduction along the grain surfaces. This offers the perspective to link such measurements to the characteristics of the solid-fluid-interface and thus, at least in unconsolidated sediments, should allow for first-order estimates of the permeability structure.¦While the IP-effect is well explored through laboratory experiments and in part verified through field data for clay-rich environments, the applicability of IP-based characterizations to clay-poor aquifers is not clear. For example, polarization mechanisms like membrane polarization are not applicable in the rather wide pore-systems of clay free sands, and the direct transposition of Schwarz' theory relating polarization of spheres to the relaxation mechanism of polarized cells to complex natural sediments yields ambiguous results.¦In order to improve our understanding of the structural origins of IP-signals in such environments as well as their correlation with pertinent hydrological parameters, various laboratory measurements have been conducted. We consider saturated quartz samples with a grain size spectrum varying from fine sand to fine gravel, that is grain diameters between 0,09 and 5,6 mm, as well as corresponding pertinent mixtures which can be regarded as proxies for widespread alluvial deposits. The pore space characteristics are altered by changing (i) the grain size spectra, (ii) the degree of compaction, and (iii) the level of sorting. We then examined how these changes affect the SIP response, the hydraulic conductivity, and the specific surface area of the considered samples, while keeping any electrochemical variability during the measurements as small as possible. The results do not follow simple assumptions on relationships to single parameters such as grain size. It was found that the complexity of natural occurring media is not yet sufficiently represented when modelling IP. At the same time simple correlation to permeability was found to be strong and consistent. Hence, adaptations with the aim of better representing the geo-structure of natural porous media were applied to the simplified model space used in Schwarz' IP-effect-theory. The resulting semi- empiric relationship was found to more accurately predict the IP-effect and its relation to the parameters grain size and permeability. If combined with recent findings about the effect of pore fluid electrochemistry together with advanced complex resistivity tomography, these results will allow us to picture diverse aspects of the subsurface with relative certainty. Within the framework of single measurement campaigns, hydrologiste can than collect data with information about the geo-structure and geo-chemistry of the subsurface. However, additional research efforts will be necessary to further improve the understanding of the physical origins of IP-effect and minimize the potential for false interpretations.¦-¦Dans l'étude des processus et caractéristiques hydrologiques des subsurfaces, la résolution spatiale donnée par les modèles hydrologiques dépasse souvent la résolution des données du terrain récoltées avec des méthodes classiques d'hydrologie. Récemment il est possible de réduire de plus en plus cet divergence spatiale entre modèles numériques et données du terrain par l'utilisation de méthodes géophysiques, notamment celles géoélectriques. Parmi les méthodes électriques, la polarisation provoquée (PP) permet de représenter la capacité des roches poreuses et des sols à stocker une charge électrique. En l'absence des métaux dans le sous-sol, cet effet est largement influencé par des caractéristiques de surface des matériaux. En conséquence les mesures PP offrent une information des interfaces entre solides et fluides dans les matériaux poreux que nous pouvons lier à la perméabilité également dirigée par ces mêmes paramètres. L'effet de la polarisation provoquée à été étudié dans différentes études de laboratoire, ainsi que sur le terrain. A cause d'une faible capacité de polarisation des matériaux sableux, comparé aux argiles, leur caractérisation par l'effet-PP reste difficile a interpréter d'une manière cohérente pour les environnements hétérogènes.¦Pour améliorer les connaissances sur l'importance de la structure du sous-sol sableux envers l'effet PP et des paramètres hydrologiques, nous avons fait des mesures de laboratoire variées. En détail, nous avons considéré des échantillons sableux de quartz avec des distributions de taille de grain entre sables fins et graviers fins, en diamètre cela fait entre 0,09 et 5,6 mm. Les caractéristiques de l'espace poreux sont changées en modifiant (i) la distribution de taille des grains, (ii) le degré de compaction, et (iii) le niveau d'hétérogénéité dans la distribution de taille de grains. En suite nous étudions comment ces changements influencent l'effet-PP, la perméabilité et la surface spécifique des échantillons. Les paramètres électrochimiques sont gardés à un minimum pendant les mesures. Les résultats ne montrent pas de relation simple entre les paramètres pétro-physiques comme par exemples la taille des grains. La complexité des media naturels n'est pas encore suffisamment représenté par les modèles des processus PP. Néanmoins, la simple corrélation entre effet PP et perméabilité est fort et consistant. En conséquence la théorie de Schwarz sur l'effet-PP a été adapté de manière semi-empirique pour mieux pouvoir estimer la relation entre les résultats de l'effet-PP et les paramètres taille de graines et perméabilité. Nos résultats concernant l'influence de la texture des matériaux et celles de l'effet de l'électrochimie des fluides dans les pores, permettront de visualiser des divers aspects du sous-sol. Avec des telles mesures géo-électriques, les hydrologues peuvent collectionner des données contenant des informations sur la structure et la chimie des fluides des sous-sols. Néanmoins, plus de recherches sur les origines physiques de l'effet-PP sont nécessaires afin de minimiser le risque potentiel d'une mauvaise interprétation des données.
Resumo:
There is a sustained controversy in the literature about the role and utility of self-monitoring of blood glucose (SMBG) in type 2 diabetes. The study results in this field do not provide really useful clues for the integration of SMBG in the follow-up of the individual patient, because they are based on a misconception of SMBG. It is studied as if it was a medical treatment whose effect on glycemic control is to be isolated. However, SMBG has no such intrinsic effect. It gains its purpose only as an inseparable component of a comprehensive and structured educational strategy. To be appropriate this strategy cannot be based on the health care professionals' view on diabetes only. It rather has to be tailored to the individual patient's needs through an ongoing process of shared reflection with him.
Resumo:
RésuméLa coexistence de nombreuses espèces différentes a de tout temps intrigué les biologistes. La diversité et la composition des communautés sont influencées par les perturbations et l'hétérogénéité des conditions environnementales. Bien que dans la nature la distribution spatiale des conditions environnementales soit généralement autocorrélée, cet aspect est rarement pris en compte dans les modèles étudiant la coexistence des espèces. Dans ce travail, nous avons donc abordé, à l'aide de simulations numériques, la coexistence des espèces ainsi que leurs caractéristiques au sein d'un environnement autocorrélé.Afin de prendre en compte cet élément spatial, nous avons développé un modèle de métacommunauté (un ensemble de communautés reliées par la dispersion des espèces) spatialement explicite. Dans ce modèle, les espèces sont en compétition les unes avec les autres pour s'établir dans un nombre de places limité, dans un environnement hétérogène. Les espèces sont caractérisées par six traits: optimum de niche, largeur de niche, capacité de dispersion, compétitivité, investissement dans la reproduction et taux de survie. Nous nous sommes particulièrement intéressés à l'influence de l'autocorrélation spatiale et des perturbations sur la diversité des espèces et sur les traits favorisés dans la métacommunauté. Nous avons montré que l'autocorrélation spatiale peut avoir des effets antagonistes sur la diversité, en fonction du taux de perturbations considéré. L'influence de l'autocorrélation spatiale sur la capacité de dispersion moyenne dans la métacommunauté dépend également des taux de perturbations et survie. Nos résultats ont aussi révélé que de nombreuses espèces avec différents degrés de spécialisation (i.e. différentes largeurs de niche) peuvent coexister. Toutefois, les espèces spécialistes sont favorisées en absence de perturbations et quand la dispersion est illimitée. A l'opposé, un taux élevé de perturbations sélectionne des espèces plus généralistes, associées avec une faible compétitivité.L'autocorrélation spatiale de l'environnement, en interaction avec l'intensité des perturbations, influence donc de manière considérable la coexistence ainsi que les caractéristiques des espèces. Ces caractéristiques sont à leur tour souvent impliquées dans d'importants processus, comme le fonctionnement des écosystèmes, la capacité des espèces à réagir aux invasions, à la fragmentation de l'habitat ou aux changements climatiques. Ce travail a permis une meilleure compréhension des mécanismes responsables de la coexistence et des caractéristiques des espèces, ce qui est crucial afin de prédire le devenir des communautés naturelles dans un environnement changeant.AbstractUnderstanding how so many different species can coexist in nature is a fundamental and long-standing question in ecology. Community diversity and composition are known to be influenced by heterogeneity in environmental conditions and disturbance. Though in nature the spatial distribution of environmental conditions is frequently autocorrelated, this aspect is seldom considered in models investigating species coexistence. In this work, we thus addressed several questions pertaining to species coexistence and composition in spatially autocorrelated environments, with a numerical simulations approach.To take into account this spatial aspect, we developed a spatially explicit model of metacommunity (a set of communities linked by dispersal of species). In this model, species are trophically equivalent, and compete for space in a heterogeneous environment. Species are characterized by six life-history traits: niche optimum, niche breadth, dispersal, competitiveness, reproductive investment and survival rate. We were particularly interested in the influence of environmental spatial autocorrelation and disturbance on species diversity and on the traits of the species favoured in the metacommunity. We showed that spatial autocorrelation can have antagonistic effects on diversity depending on disturbance rate. Similarly, spatial autocorrelation interacted with disturbance rate and survival rate to shape the mean dispersal ability observed in the metacommunity. Our results also revealed that many species with various degrees of specialization (i.e. different niche breadths) can coexist together. However specialist species were favoured in the absence of disturbance, and when dispersal was unlimited. In contrast, high disturbance rate selected for more generalist species, associated with low competitive ability.The spatial structure of the environment, together with disturbance and species traits, thus strongly impacts species diversity and, more importantly, species composition. Species composition is known to affect several important metacommunity properties such as ecosystem functioning, resistance and reaction to invasion, to habitat fragmentation and to climate changes. This work allowed a better understanding of the mechanisms responsible for species composition, which is of crucial importance to predict the fate of natural metacommunities in changing environments