876 resultados para Paramètres pharmacocinétiques
Resumo:
La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.
Resumo:
La structuration laser femtoseconde de verres d’oxydes est aujourd’hui un domaine de recherche en pleine expansion. L’interaction laser-matière est de plus en plus utilisée pour sa facilité de mise en œuvre et les nombreuses applications qui découlent de la fabrication des composants photoniques, déjà utilisés dans l’industrie des hautes technologies. En effet, un faisceau d’impulsions ultracourtes focalisé dans un matériau transparent atteint une intensité suffisante pour modifier la matière en trois dimensions sur des échelles micro et nanométriques. Cependant, l’interaction laser-matière à ces régimes d’intensité n’est pas encore complètement maîtrisée, et les matériaux employés ne sont pas entièrement adaptés aux nouvelles applications photoniques. Par ce travail de thèse, nous nous efforçons donc d’apporter des réponses à ces interrogations. Le mémoire est articulé autour de deux grands volets. Le premier aborde la question de l’interaction de surface de verres avec de telles impulsions lumineuses qui mènent à l’auto-organisation périodique de la matière structurée. L’influence du dopage en ions photosensibles et des paramètres d’irradiation est étudiée afin d’appuyer et de conforter le modèle d’incubation pour la formation de nanoréseaux de surface. À travers une approche innovante, nous avons réussi à apporter un contrôle de ces structures nanométriques périodiques pour de futures applications. Le second volet traite de cristallisation localisée en volume induite en grande partie par l’interaction laser-matière. Plusieurs matrices vitreuses, avec différents dopages en sel d’argent, ont été étudiées pour comprendre les mécanismes de précipitation de nanoparticules d’argent. Ce travail démontre le lien entre la physicochimie de la matrice vitreuse et le caractère hors équilibre thermodynamique de l’interaction qui influence les conditions de nucléation et de croissance de ces nano-objets. Tous ces résultats sont confrontés à des modélisations de la réponse optique du plasmon de surface des nanoparticules métalliques. Les nombreuses perspectives de ce travail ouvrent sur de nouvelles approches quant à la caractérisation, aux applications et à la compréhension de l’interaction laser femtoseconde pour l’inscription directe de briques photoniques dans des matrices vitreuses.
Resumo:
L’Ataxie spastique autosomale récessive de Charlevoix-Saguenay (ARSACS) est un syndrome héréditaire précoce caractérisé par un tableau clinique particulier incluant des anomalies oculaires. Quatorze ARSACS et 36 témoins sains ont été suivis prospectivement durant 20 mois et ont subi différents tests neuro-ophtalmologiques et des mesures par tomographie par cohérence optique. Des augmentations de l’épaisseur moyenne de la couche de fibres nerveuses (mRNFL), de l’épaisseur fovéolaire centrale et de l’épaisseur moyenne du cube maculaire (CAT) ont été mises en évidence chez les ARSACS en comparaison avec les témoins (p<0,0001 à toutes les séances). Une différence cliniquement significative a été observée dans l’évolution au cours du suivi des épaisseurs de la mRNFL et la CAT des ARSACS par rapport aux contrôles (p=0,030, p=0,026 respectivement), et ces paramètres étaient inversement corrélés avec le degré de sévérité de la maladie, suggérant une diminution d’épaisseur de la mRNFL et de la CAT à mesure que progresse la maladie.
Resumo:
Resumo Uma estratégia de avaliação e prevenção de riscos na exposição a agentes químicos deve ter sempre em conta que a vigilância do ambiente de trabalho e a da saúde dos trabalhadores são aspectos complementares de uma mesma realidade – os riscos resultantes da interacção entre um agente químico e os trabalhadores a ele expostos. Se à Vigilância Ambiental compete apreciar o risco, pela caracterização do agente no ambiente de trabalho, a Vigilância Biológica pronuncia-se sobre a interacção entre o tóxico e o organismo, avaliando a resposta à agressão química e a evolução das reacções de adaptação ou de desajuste face à absorção do tóxico. Os Indicadores Biológicos, deste modo, assumem um estatuto de instrumento privilegiado na vigilância da saúde dos trabalhadores expostos, na medida em que medem a quantidade de tóxico que efectivamente penetrou e foi absorvido, ou o resultado (efeito) determinado por essa mesma dose. O presente estudo procura contribuir para a definição de um quadro metodológico de utilização dos Indicadores Biológicos na avaliação/gestão da exposição profissional ao chumbo, designadamente apreciando a variação da protoporfirina-zinco (PPZ), indicador até ao presente ainda não utilizado em Portugal. O chumbo é um metal de ocorrência natural, cujos níveis nos diversos ecossistemas resultam, principalmente, das actividades antropogénicas de natureza doméstica e industrial. A sua capacidade poluente é assinalável, representando uma fonte de exposição permanente para o homem, demonstrável pela sua constante presença no organismo apesar de não desempenhar qualquer tipo de função fisiológica. São actualmente inúmeras as suas aplicações, tornando a exposição profissional ao chumbo uma realidade vasta: indústrias de acumuladores eléctricos, de vidros, de plásticos e de munições, construção civil, manutenção e reparação automóvel e de navios, fabrico de tintas, indústrias electrónicas, fundições e actividades de soldadura são, entre outras, situações onde é uma realidade a ter em conta. A penetração dos compostos inorgânicos de chumbo no organismo efectua-se principalmente por via respiratória, não sendo, no entanto, desprezável, a sua penetração por via digestiva. As partículas absorvidas são transportadas pelo sangue principalmente ligadas aos eritrocitos (95%), distribuem-se pelos tecidos moles e depositam-se essencialmente no tecido ósseo, onde representam mais de 90% da carga corporal do total absorvido e tendo aí um elevado tempo de semi-vida (mais de 20 anos). Não é metabolizado no organismo e a sua eliminação efectua-se essencialmente por via renal,sendo igualmente excretado, em menor escala, através das fezes, do suor, da saliva, das faneras e do leite materno. O conhecimento científico evidencia que concentrações sanguíneas de chumbo entre 20 e 50 mg/dL são susceptíveis de determinar efeitos adversos no homem, podendo ser afectados o sistema hematopoiético, o sistema nervoso, o sistema cardiovascular, o sistema reprodutor e o sistema imunitário. Contudo, ainda muito há a clarificar no âmbito da toxicidade do chumbo. Os níveis de exposição a que correspondem as alterações nos diversos órgãos e sistemas continuam a ser motivo de alguma controvérsia. As características carcinogénicas e mutagénicas do chumbo são, ainda, um campo de vasta exigência de investigação. A intoxicação por chumbo e seus sais (Saturnismo) de origem ocupacional é reconhecida em Portugal como doença profissional (grupo 1 - Doenças Provocadas por Agentes Químicos, da Lista das Doenças Profissionais). É uma intoxicação do tipo crónico, fruto da absorção contínua de doses relativamente pequenas durante longo período, evidenciando-se no seu início por sinais e sintomas vagos e difusos de grande inespecificidade, que podem incluir, nomeadamente, perda de apetite, sabor metálico na boca, palidez, mal-estar e fadiga, cefaleias, mialgias e artralgias, irritabilidade, tremores finos, obstipação, cólicas abdominais, insónias, déficit da memória de curto prazo e da capacidade de concentração. Um importante conjunto de indicadores biológicos pode ser utilizado na vigilância periódica da saúde de trabalhadores nestas condições de exposição. Tais indicadores (de dose ou de efeito), encerram diferentes significados e comportam distintas exigências, competindo ao Médico do Trabalho, no âmbito dos programas de prevenção dos efeitos adversos relacionados com a exposição profissional a chumbo, seleccionar a sua utilização e interpretar a sua informação, de modo a avaliar a interacção do tóxico com o organismo numa fase de reversibilidade. O presente estudo envolveu 180 trabalhadores dos quais 110 apresentavam plumbémias (Pb-S) iguais ou superiores a 40 mg/dL. Além da Pb-S, a todos foi doseada a protoporfirina-zinco (PPZ) e efectuado o Hemograma e a cerca de 25% foi determinada a concentração do ácido d-aminolevulínico urinário (ALA-U). Os doseamentos da PPZ efectuados em amostra de sangue capilar através de um hematofluorímetro portátil revelaram-se de total fiabilidade, dando significado a uma técnica de fácil execução e baixo custo. A avaliação do tipo de colheita urinária para doseamento do ALA-U concluiu pela necessidade de recurso a urinas de 24 horas.Os resultados do estudo evidenciaram uma elevada associação entre a PPZ e a Pb-S, com uma maior magnitude e de início mais precoce do que o que registado na associação da Pb-S com o ALA-U. Revelaram, ainda, fracos níveis de associação da hemoglobina (e outros parâmetros hematológicos) com a Pb-S. E demonstraram para um cut-off de 100 mg/ dL de PPZ, taxa de falsos negativos e falsos positivos, para plumbémias a partir de 70 mg/dL, inferiores a 20%. Assim, concluiu-se que, nos protocolos de vigilância de saúde de trabalhadores expostos a chumbo, o doseamento da PPZ por hematofluorímetro, em sangue de colheita capilar, é adequado, fiável e de realização preferencial em relação ao do ALA-U. Concluiu-se, também, que a realização do hemograma apenas se justifica em situações individuais que clinicamente o tornem aconselhável. E que estes protocolos devem incluir a realização da Pb-S e da PPZ, podendo, em situações de controlo rigoroso (ambiental, biológico e clínico), basear-se apenas na determinação da PPZ reservando os outros indicadores para aprofundar a investigação médica nos casos de taxas elevadas desta ou de situações limitantes. ■ Résumée Une stratégie d’évaluation et de prévention des risques d’exposition aux agents chimiques doit toujours tenir en considération que la vigilance du lieu de travail et de la santé des travailleurs sont des aspects complémentaires d’une même réalité – les risques résultant d’une interaction entre l’agent chimique et les travailleurs exposés. Si c’est à la Vigilance Ambiantale de juger le risque, par la caractérisation de l’agent dans le lieu de travail, la Vigilance Biologique, elle, se prononce sur l’interaction entre le toxique et l’organisme, évaluant la réponse à l’agression chimique et l’évolution des réactions d’adaptation ou de rupture face à l’absorption du toxique. Les Indicateurs Biologiques assument ainsi un statut d’instrument privilégié de vigilance de la santé des travailleurs exposés, dans la mesure où ils déterminent la quantité de toxique qui a effectivement été pénétré et absorbé, ou le résultat (effet) déterminé par cette dose. Cette étude-ci cherche à contribuer à la définition d’un cadre méthodologique d’utilisation des Indicateurs Biologiques dans l’évaluation/ gestion de l’exposition professionnelle au plomb inorganique, évaluant spécialement le comportement de la protoporphirine-zinc (PPZ), indicateur pas encore utilisé au Portugal.Le plomb est un métal d’occurrence naturelle dont les niveaux dans les différents écosystèmes en résultent, principalement, des activités anthropogéniques de nature domestique et industrielle. Sa capacité polluante peut être signalée, représentant une source d’exposition permanente pour l’homme, celle-ci démontrable par sa présence continue dans l’organisme, même si elle n’y accomplit aucune fonction physiologique. Actuellement ses applications sont innombrables, faisant de l’exposition professionnelle au plomb une réalité de grande ampleur : industries d’accumulateurs électriques, de verre, de plastique et de munitions, bâtiments, manutention et réparation automobile et navale, fabrication d’encres, industries électroniques, fontes et activités de soudure sont, entre autres, des situations réelles a en tenir compte. La pénétration du plomb inorganique dans l’organisme se fait principalement par voie respiratoire, pouvant se faire également par voie digestive. Les particules absorbées sont transportées par le sang, surtout liées aux érythrocytes (95%), se repartent à travers les tissus mous et se déposent essentiellement dans le tissu osseux, où elles représentent plus de 90% de la charge corporelle de ce qui a été absorbé et ont un temps de demi-vie élevé (plus de 20 ans). Le plomb n’est pas métabolisé dans l’organisme et son élimination se fait essentiellement par voie rénale, pouvant tout de même, à une moindre échelle, être excrété dans les fèces, de la sueur, de la salive, des ongles, des cheveux et du lait maternel. La connaissance scientifique met en évidence que des concentrations sanguines de plomb entre 20 et 50 mg/dL sont susceptibles de déterminer des effets adverses dans l’homme, pouvant les systèmes hématopoïétique, nerveux, cardiovasculaire, reproducteur et immunitaire en être affectés. Cependant, il en reste beaucoup à éclaircir dans le domaine de la toxicité du plomb. Les niveaux d’exposition auxquels correspondent les modifications des divers organes et systèmes, demeurent toujours sujet de quelque controverse. Les caractéristiques carcinogèniques et mutagèniques du plomb restent toujours un champ d’investigation d’une grande exigence. L’intoxication par le plomb et ses sels (Saturnisme) d’origine occupationnelle est reconnue, au Portugal, comme une maladie professionnelle (groupe 1- Maladies Provoquées par des Agents Chimiques, de la Liste des Maladies Professionnelles). C’est une intoxication du tipe chronique, due à l’absorption continue de doses relativement petites pendant une longue période, mise en évidence à travers des signes et des symptômes vagues et diffus sans grande spécificité, lesquels peuvent inclure, particulièrement, le manque d’appétit, goût métallique dans la bouche, pâleur, malaise et fatigue, céphalées, myalgies et arthralgies, irritabilité, tremblements fins, constipation, coliques abdominales, insomnies, déficit de la mémoire à court terme et de la capacité de concentration.Un ensemble important d’indicateurs biologiques peut être employé dans la vigilance périodique de la santé des travailleurs dans ces conditions d’exposition. Ces indicateurs (de dose ou d’effet) renferment différentes significations et comportent diverses exigences, devant le Médecin de Travail, dans le domaine des programmes de prévention des effets adverses qui sont en relation avec l’exposition professionnelle au plomb, sélectionner son utilisation et interpréter son information de façon à évaluer l’interaction de l’élément toxique avec l’organisme à un stade de réversibilité. L’étude ci-présent engloba 180 travailleurs desquels 110 présentaient des plombémies (Pb-S) égales ou supérieures à 40 mg/dL. À part la Pb-S, la protoporphyrine-zinc (PPZ) leur a été prise en dosage et un Hémogramme fut effectué et fut déterminé l’acide d- aminolévulinique urinaire (ALA-U) sur environ 25% des travailleurs. Le dosage de la PPZ efectué en échantillon de sang capillaire par un fluorimètre portable, s’est accomplit d’une fiabilité total, donnant du sgnificat à une téchnique de facile execution et bas prix. L’évaluation de la prise urinaire par dosage du ALA-U conclut au besoin d’un recours aux urines de 24 heures Les résultats de l’étude ont mis en évidence une association élevée entre la PPZ et la Pb- S, avec une intensité majeure et de début plus précoce par rapport à celui qui fut registré lors de l’association de la Pb-S avec la ALA-U. Ces résultats ont également montré de faibles niveaux d’association entre l’hémoglobine (et autres paramètres hématologiques) et la Pb-S. Ils ont démontré aussi, une valeur de cut-off de 100 mg/dL de PPZ, des taux de faux négatifs et faux positifs, pour des plombémies de 70 mg/dL, inférieurs à 20%. On peut donc conclure que dans les protocoles de vigilance de la santé des travailleurs exposés au plomb, le dosage de la PPZ par fluorimetrie dans le sang capillaire est adéquat, fiable et de réalisation préférentielle par rapport à celui du ALA-U. On peut également conclure que la réalisation de l’hémogramme ne se justifie que dans les cas individuels où, cliniquement, celui-ci est conseillé. De plus, ces protocoles doivent inclure la réalisation de la Pb-S et de la PPZ, pouvant, en cas de contrôle rigoureux (ambiantal, biologique et clinique), s’appuyer que dans la détermination de la PPZ réservant les autres indicateurs pour approfondir l’investigation médicale dans les cas où les taux de celle-ci sont élevés ou dans les cas de situations limitantes. ■ Summary Any strategy to evaluate and prevent the risks of chemical agents exposure must always regard the work environment and workers health as complementary aspects of one reality - the resulting risks from the interaction between the chemical agent and the exposed workers. It is the responsibility of Environmental Monitoring to evaluate the risks of exposure by the characterization of the chemical agent in the work environment. Biological Monitoring, on the other hand, pronounces itself over the toxin and body interaction, evaluating human response to the chemical aggression and the body adaptations to the toxic absorption. Biological Exposure Indices (BEI) assume, therefore, a privileged status among exposed workers' health monitoring instruments, as they measure the actual penetrated and absorbed toxic quantity and the effect it produces. This research study aims to contribute to the definition of a methodological strategy on the utilization of BEI’s in evaluating inorganic lead's occupational exposure, more specifically appreciating the zinc protoporphyrin (ZPP) variation, an index that has never been taken under consideration in Portugal until now. Lead is a natural metal whose ecosystem’s levels are mainly due to domestic and industrial anthropogenic activities. Its pollutant capacity is notable, representing a permanent exposure risk shown by its constant presence in the human body, although it has no physiologic function. Nowadays, lead's applications are countless, turning its professional exposure a huge reality: storage batteries industries, glass industries, plasterers and munitions industries, building construction, ships and motor car maintenance and repairing, ink manufacture, electronics industries, foundries and other soldering activities are, among so many other, realities to attend to. Respiration is the main cause of human body's inorganic lead absorption, although digestive pathway must not to be ignored. The absorbed particles are transported by blood, essentially bounded to erythrocytes (95%). It is distributed by soft tissues and settled mainly on bone tissues, where it represents approximately 90% of the total body charge and has a high half-life time (more than 20 years). It is not metabolized by the organism, its elimination being effectuated by renal activity and, in smaller scale, through lees, sweat, saliva, nails, hair and maternal milk.Scientific knowledge shows that concentrations of lead in blood between 20 e 50 mg/dL are susceptible to determine adverse effects in man and able to affect the hematopoietic system, the nervous system, the cardiovascular system, the reproductive system and the immunological system. Nevertheless, there's still much to be learned and clarified about lead's toxicity. The correlation between exposure levels and human's systems and organs alteration levels continues to be a centre of controversies. Still, lead's carcinogenic and mutagenic characteristics continue to be a high demanding research field. Intoxication by lead and its compounds (saturnism), from occupational origin, is recognized in Portugal as an occupational disease, included in Group 1 - Chemical Agents Caused Diseases, on the Occupational Diseases List. It is a chronic intoxication caused by a continuous absorption of small doses, throughout a long period of time. Its signs and symptoms are diffuse and imprecise, of great unspecificity, such as loss of appetite, metallic flavor in the mouth, paleness, ailment and fatigue, headaches, myalgia and arthralgia, irritability, thin tremors, constipation, abdominal pain, insomnias, short memory loses and inability to concentrate. A considered number of BEI’s can be used in Periodic Health Monitoring of workers in such exposure conditions. Such BEI (dose indices or effect indices) provide different meanings and imply different procedures, being Occupational Doctors responsibility, in the context of lead related adverse effects preventive programmes, to select and interpret its information, in order to evaluate the interaction between toxic and organism in a reversible phase of the toxic action. The present research study involved 180 workers, 110 of which presented blood lead levels (PbB) above or equal to 40 mg/dL. Besides PbB, all workers has been evaluated for zinc protoporphyrin levels (PPZ) and submitted to a haemogram. About 25% of the workers were selected for d-aminolevulinic urinary acid (ALA-U) determination. The evaluation of PPZ, by a portable hematofluorometer using capillary blood samples, turned out to be an easy procedure with low costs and total warrantability. As in regard for ALA- U procedure, it was concluded the necessity of 24 hours urine samples. This research results underlined a strong connection between ZPP and PbB, which was found to to be stringer and to begin earlier than it was registered for PbB and ALA-U association. The same study also revealed a low association level between PbB and hemoglobin or other hematological indices. It was also verified less than 20% of false negatives and false positives cases when admitted a ZPP 100 mg/dL cut off value for PbB³ 70 mg/dL. As in result it was concluded that in Health Monit
Resumo:
Rapport de Synthése : Introducfíon : la maladie diverticulaire est devenue un problème majeur de santé communautaire et occupe la cinquième place en termes de coûts des maladies digestives. La diverticulite représente sa complication la plus fréquente chez environ 20-25% des patients avec une maladie diverticulaire. Son taux de récidive après un premier épisode de diverticulite est estimé à 20%. Historiquement, il était accepté que le taux de complications et d'échec du traitement conservateur de la diverticulite soient plus élevés lors de récidive qu'après un épisode initial. Ceci a amené la communauté médicale ä un consensus qui est de proposer une sigmoidectomie élective suite à un 2ème épisode de diverticulite. De nouvelles données et réinterprétations de travaux antérieurs ont remis en question ce consensus. Par ces faits, les dernières recommandations de la société américaine de chirurgie colorectale restent encore évasives dues au manque d'évidence. Le but de cette thèse est de déterminer si la récidive de diverticulite a une présentation clinique et radiologique différente d'un épisode initiale et si le risque d'échec du traitement est réellement plus élevé. Méthode : étude rétrospective .de 271 patients consécutifs admis dans le service. de chirurgie viscérale CHUV pour diverticulite, confirmée par CT-scan, de 2001 à 2004. 202 patients présentaient un épisode initial (groupe I), et 69 une récidive (groupe R). Au total 20 paramètres cliniques et 15 radiologiques ont été analysés et comparés entre les 2 groupes, dont le taux de prise en charge chirurgicale, la présentation clinique initiale, la réponse au traitement, les complications, les paramètres de laboratoires, la présence de liquide libre, d'abcès ou de pneumopéritoine au scanner. Une analyse statistique univariée a été effectuée. Résultats : aucun des paramètres cliniques ou radiologiques n'étaient différents entre les deux groupes. Concernant la chirurgie, 15.8% des patients dans le groupe I ont nécessité une prise en charge chirurgicale à l'admission comparé à 5.8% dans le groupe R (p=0.04). Le taux d'échec du traitement conservateur dans les deux groupes était similaire (10.7% vs 10.0% ; p=0.84). Le taux de mortalité à 30 jours était de 3% dans le groupe I et 0% dans le groupe R (p= 0.34). Conclusion : selon les résultats de cette étude, la récidive de diverticulite n'entraîne pas plus de complications ni d'échec du traitement conservateur. De plus, le taux de prise en charge chirurgicale à l'admission du patient est moins fréquent en cas de récidive. Ces résultats remettent en questions le consensus actuel de prise en charge chirurgicale élective.
Resumo:
Methicillin resistant Staphylococcus aureus (MRSA) bacteria have emerged in the early 1980's in numerous health care institutions around the world. The main transmission mechanism within hospitals and healthcare facilities is through the hands of health care workers. Resistant to several antibiotics, the MRSA is one of the most feared pathogens in the hospital setting since it is very difficult to eradicate with the standard treatments. There are still a limited number of anti-MRSA antibiotics but the first cases of resistance to these compounds have already been reported and their frequency is likely to increase in the coming years. Every year, the MRSA infections result in major human and financial costs, due to the high associated mortality and expenses related to the required care. Measures towards a faster detection of resistant bacteria and establishment of appropriate antibiotic treatment parameters are fundamental. Also as part as infection prevention, diminution of bacteria present on the commonly touched surfaces could also limit the spread and selection of antibiotic resistant bacteria. During my thesis, projects were developed around MRSA and antibiotic resistance investigation using innovative technologies. The thesis was subdivided in three main parts with the use of atomic force microscopy AFM for antibiotic resistance detection in part 1, the importance of the bacterial inoculum size in the selection of antibiotic resistance in part 2 and the testing of antimicrobial surfaces creating by sputtering copper onto polyester in part 3. In part 1 the AFM was used two different ways, first for the measurement of stiffness (elasticity) of bacteria and second as a nanosensor for antibiotic susceptibility testing. The stiffness of MRSA with different susceptibility profiles to vancomycin was investigated using the stiffness tomography mode of the AFM and results have demonstrated and increased stiffness in the vancomycin resistant strains that also paralleled with increased thickness of the bacterial cell wall. Parts of the AFM were also used to build a new antibiotic susceptibility-testing device. This nano sensor was able to measure vibrations emitted from living bacteria that ceased definitively upon antibiotic exposure to which they were susceptible but restarted after antibiotic removal to which they were resistant, allowing in a matter of minute the assessment of antibiotic susceptibility determination. In part 2 the inoculum effect (IE) of vancomycin, daptomycin and linezolid and its importance in antibiotic resistance selection was investigated with MRSA during a 15 days of cycling experiment. Results indicated that a high bacterial inoculum and a prolonged antibiotic exposure were two key factors in the in vitro antibiotic resistance selection in MRSA and should be taken into consideration when choosing the drug treatment. Finally in part 3 bactericidal textile surfaces were investigated against MRSA. Polyesters coated after 160 seconds of copper sputtering have demonstrated a high bactericidal activity reducing the bacterial load of at least 3 logio after one hour of contact. -- Au cours des dernières décennies, des bactéries multirésistantes aux antibiotiques (BMR) ont émergé dans les hôpitaux du monde entier. Depuis lors, le nombre de BMR et la prévalence des infections liées aux soins (IAS) continuent de croître et sont associés à une augmentation des taux de morbidité et de mortalité ainsi qu'à des coûts élevés. De plus, le nombre de résistance à différentes classes d'antibiotiques a également augmenté parmi les BMR, limitant ainsi les options thérapeutiques disponibles lorsqu'elles ont liées a des infections. Des mesures visant une détection plus rapide des bactéries résistantes ainsi que l'établissement des paramètres de traitement antibiotiques adéquats sont primordiales lors d'infections déjà présentes. Dans une optique de prévention, la diminution des bactéries présentes sur les surfaces communément touchées pourrait aussi freiner la dissémination et l'évolution des bactéries résistantes. Durant ma thèse, différents projets incluant des nouvelles technologies et évoluant autour de la résistance antibiotique ont été traités. Des nouvelles technologies telles que le microscope à force atomique (AFM) et la pulvérisation cathodique de cuivre (PCC) ont été utilisées, et le Staphylococcus aureus résistant à la méticilline (SARM) a été la principale BMR étudiée. Deux grandes lignes de recherche ont été développées; la première visant à détecter la résistance antibiotique plus rapidement avec l'AFM et la seconde visant à prévenir la dissémination des BMR avec des surfaces crées grâce à la PCC. L'AFM a tout d'abord été utilisé en tant que microscope à sonde locale afin d'investiguer la résistance à la vancomycine chez les SARMs. Les résultats ont démontré que la rigidité de la paroi augmentait avec la résistance à la vancomycine et que celle-ci corrélait aussi avec une augmentation de l'épaisseur des parois, vérifiée grâce à la microscopie électronique. Des parties d'un AFM ont été ensuite utilisées afin de créer un nouveau dispositif de test de sensibilité aux antibiotiques, un nanocapteur. Ce nanocapteur mesure des vibrations produites par les bactéries vivantes. Après l'ajout d'antibiotique, les vibrations cessent définitivement chez les bactéries sensibles à l'antibiotique. En revanche pour les bactéries résistantes, les vibrations reprennent après le retrait de l'antibiotique dans le milieu permettant ainsi, en l'espace de minutes de détecter la sensibilité de la bactérie à un antibiotique. La PCC a été utilisée afin de créer des surfaces bactéricides pour la prévention de la viabilité des BMR sur des surfaces inertes. Des polyesters finement recouverts de cuivre (Cu), connu pour ses propriétés bactéricides, ont été produits et testés contre des SARMs. Une méthode de détection de viabilité des bactéries sur ces surfaces a été mise au point, et les polyesters obtenus après 160 secondes de pulvérisation au Cu ont démontré une excellente activité bactéricide, diminuant la charge bactérienne d'au moins 3 logio après une heure de contact. En conclusion, l'utilisation de nouvelles technologies nous a permis d'évoluer vers de méthodes de détection de la résistance antibiotique plus rapides ainsi que vers le développement d'un nouveau type de surface bactéricide, dans le but d'améliorer le diagnostic et la gestion des BMR.
Resumo:
The geodynamic forces acting in the Earth's interior manifest themselves in a variety of ways. Volcanoes are amongst the most impressive examples in this respect, but like with an iceberg, they only represent the tip of a more extensive system hidden underground. This system consists of a source region where melt forms and accumulates, feeder connections in which magma is transported towards the surface, and different reservoirs where it is stored before it eventually erupts to form a volcano. A magma represents a mixture of melt and crystals. The latter can be extracted from the source region, or form anywhere along the path towards their final crystallization place. They will retain information of the overall plumbing system. The host rocks of an intrusion, in contrast, provide information at the emplacement level. They record the effects of thermal and mechanical forces imposed by the magma. For a better understanding of the system, both parts - magmatic and metamorphic petrology - have to be integrated. I will demonstrate in my thesis that information from both is complementary. It is an iterative process, using constraints from one field to better constrain the other. Reading the history of the host rocks is not always straightforward. This is shown in chapter two, where a model for the formation of clustered garnets observed in the contact aureole is proposed. Fragments of garnets, older than the intrusive rocks are overgrown by garnet crystallizing due to the reheating during emplacement of the adjacent pluton. The formation of the clusters is therefore not a single event as generally assumed but the result of a two-stage process, namely the alteration of the old grains and the overgrowth and amalgamation of new garnet rims. This makes an important difference when applying petrological methods such as thermobarometry, geochronology or grain size distributions. The thermal conditions in the aureole are a strong function of the emplacement style of the pluton. therefore it is necessary to understand the pluton before drawing conclusions about its aureole. A study investigating the intrusive rocks by means of field, geochemical, geochronologi- cal and structural methods is presented in chapter three. This provided important information about the assembly of the intrusion, but also new insights on the nature of large, homogeneous plutons and the structure of the plumbing system in general. The incremental nature of the emplacement of the Western Adamello tonalité is documented, and the existence of an intermediate reservoir beneath homogeneous plutons is proposed. In chapter four it is demonstrated that information extracted from the host rock provides further constraints on the emplacement process of the intrusion. The temperatures obtain by combining field observations with phase petrology modeling are used together with thermal models to constrain the magmatic activity in the immediate intrusion. Instead of using the thermal models to control the petrology result, the inverse is done. The model parameters were changed until a match with the aureole temperatures was obtained. It is shown, that only a few combinations give a positive match and that temperature estimates from the aureole can constrain the frequency of ancient magmatic systems. In the fifth chapter, the Anisotropy of Magnetic Susceptibility of intrusive rocks is compared to 3D tomography. The obtained signal is a function of the shape and distribution of ferromagnetic grains, and is often used to infer flow directions of magma. It turns out that the signal is dominated by the shape of the magnetic crystals, and where they form tight clusters, also by their distribution. This is in good agreement with the predictions made in the theoretical and experimental literature. In the sixth chapter arguments for partial melting of host rock carbonates are presented. While at first very surprising, this is to be expected when considering the prior results from the intrusive study and experiments from the literature. Partial melting is documented by compelling microstructures, geochemical and structural data. The necessary conditions are far from extreme and this process might be more frequent than previously thought. The carbonate melt is highly mobile and can move along grain boundaries, infiltrating other rocks and ultimately alter the existing mineral assemblage. Finally, a mineralogical curiosity is presented in chapter seven. The mineral assemblage magne§site and calcite is in apparent equilibrium. It is well known that these two carbonates are not stable together in the system Ca0-Mg0-Fe0-C02. Indeed, magnesite and calcite should react to dolomite during metamorphism. The presented explanation for this '"forbidden" assemblage is, that a calcite melt infiltrated the magnesite bearing rock along grain boundaries and caused the peculiar microstructure. This is supported by isotopie disequilibrium between calcite and magnesite. A further implication of partially molten carbonates is, that the host rock drastically looses its strength so that its physical properties may be comparable to the ones of the intrusive rocks. This contrasting behavior of the host rock may ease the emplacement of the intrusion. We see that the circle closes and the iterative process of better constraining the emplacement could start again. - La Terre est en perpétuel mouvement et les forces tectoniques associées à ces mouvements se manifestent sous différentes formes. Les volcans en sont l'un des exemples les plus impressionnants, mais comme les icebergs, les laves émises en surfaces ne représentent que la pointe d'un vaste système caché dans les profondeurs. Ce système est constitué d'une région source, région où la roche source fond et produit le magma ; ce magma peut s'accumuler dans cette région source ou être transporté à travers différents conduits dans des réservoirs où le magma est stocké. Ce magma peut cristalliser in situ et produire des roches plutoniques ou alors être émis en surface. Un magma représente un mélange entre un liquide et des cristaux. Ces cristaux peuvent être extraits de la source ou se former tout au long du chemin jusqu'à l'endroit final de cristallisation. L'étude de ces cristaux peut ainsi donner des informations sur l'ensemble du système magmatique. Au contraire, les roches encaissantes fournissent des informations sur le niveau d'emplacement de l'intrusion. En effet ces roches enregistrent les effets thermiques et mécaniques imposés par le magma. Pour une meilleure compréhension du système, les deux parties, magmatique et métamorphique, doivent être intégrées. Cette thèse a pour but de montrer que les informations issues de l'étude des roches magmatiques et des roches encaissantes sont complémentaires. C'est un processus itératif qui utilise les contraintes d'un domaine pour améliorer la compréhension de l'autre. Comprendre l'histoire des roches encaissantes n'est pas toujours aisé. Ceci est démontré dans le chapitre deux, où un modèle de formation des grenats observés sous forme d'agrégats dans l'auréole de contact est proposé. Des fragments de grenats plus vieux que les roches intru- sives montrent une zone de surcroissance générée par l'apport thermique produit par la mise en place du pluton adjacent. La formation des agrégats de grenats n'est donc pas le résultat d'un seul événement, comme on le décrit habituellement, mais d'un processus en deux phases, soit l'altération de vieux grains engendrant une fracturation de ces grenats, puis la formation de zone de surcroissance autour de ces différents fragments expliquant la texture en agrégats observée. Cette interprétation en deux phases est importante, car elle engendre des différences notables lorsque l'on applique des méthodes pétrologiques comme la thermobarométrie, la géochronologie ou encore lorsque l'on étudie la distribution relative de la taille des grains. Les conditions thermales dans l'auréole de contact dépendent fortement du mode d'emplacement de l'intrusion et c'est pourquoi il est nécessaire de d'abord comprendre le pluton avant de faire des conclusions sur son auréole de contact. Une étude de terrain des roches intrusives ainsi qu'une étude géochimique, géochronologique et structurale est présente dans le troisième chapitre. Cette étude apporte des informations importantes sur la formation de l'intrusion mais également de nouvelles connaissances sur la nature de grands plutons homogènes et la structure de système magmatique en général. L'emplacement incrémental est mis en évidence et l'existence d'un réservoir intermédiaire en-dessous des plutons homogènes est proposé. Le quatrième chapitre de cette thèse illustre comment utiliser l'information extraite des roches encaissantes pour expliquer la mise en place de l'intrusion. Les températures obtenues par la combinaison des observations de terrain et l'assemblage métamorphique sont utilisées avec des modèles thermiques pour contraindre l'activité magmatique au contact directe de cette auréole. Au lieu d'utiliser le modèle thermique pour vérifier le résultat pétrologique, une approche inverse a été choisie. Les paramètres du modèle ont été changés jusqu'à ce qu'on obtienne une correspondance avec les températures observées dans l'auréole de contact. Ceci montre qu'il y a peu de combinaison qui peuvent expliquer les températures et qu'on peut contraindre la fréquence de l'activité magmatique d'un ancien système magmatique de cette manière. Dans le cinquième chapitre, les processus contrôlant l'anisotropie de la susceptibilité magnétique des roches intrusives sont expliqués à l'aide d'images de la distribution des minéraux dans les roches obtenues par tomographie 3D. Le signal associé à l'anisotropie de la susceptibilité magnétique est une fonction de la forme et de la distribution des grains ferromagnétiques. Ce signal est fréquemment utilisé pour déterminer la direction de mouvement d'un magma. En accord avec d'autres études de la littérature, les résultats montrent que le signal est dominé par la forme des cristaux magnétiques, ainsi que par la distribution des agglomérats de ces minéraux dans la roche. Dans le sixième chapitre, une étude associée à la fusion partielle de carbonates dans les roches encaissantes est présentée. Si la présence de liquides carbonatés dans les auréoles de contact a été proposée sur la base d'expériences de laboratoire, notre étude démontre clairement leur existence dans la nature. La fusion partielle est documentée par des microstructures caractéristiques pour la présence de liquides ainsi que par des données géochimiques et structurales. Les conditions nécessaires sont loin d'être extrêmes et ce processus pourrait être plus fréquent qu'attendu. Les liquides carbonatés sont très mobiles et peuvent circuler le long des limites de grain avant d'infiltrer d'autres roches en produisant une modification de leurs assemblages minéralogiques. Finalement, une curiosité minéralogique est présentée dans le chapitre sept. L'assemblage de minéraux de magnésite et de calcite en équilibre apparent est observé. Il est bien connu que ces deux carbonates ne sont pas stables ensemble dans le système CaO-MgO-FeO-CO.,. En effet, la magnésite et la calcite devraient réagir et produire de la dolomite pendant le métamorphisme. L'explication présentée pour cet assemblage à priori « interdit » est que un liquide carbonaté provenant des roches adjacentes infiltre cette roche et est responsable pour cette microstructure. Une autre implication associée à la présence de carbonates fondus est que la roche encaissante montre une diminution drastique de sa résistance et que les propriétés physiques de cette roche deviennent comparables à celles de la roche intrusive. Cette modification des propriétés rhéologiques des roches encaissantes peut faciliter la mise en place des roches intrusives. Ces différentes études démontrent bien le processus itératif utilisé et l'intérêt d'étudier aussi bien les roches intrusives que les roches encaissantes pour la compréhension des mécanismes de mise en place des magmas au sein de la croûte terrestre.
Resumo:
Introduction: en oncologie apparaissent sur le marché depuis quelques années de nouveaux traitements en formulation orale facilitant l'administration et améliorant la qualité de vie du patient mais augmentant le risque de non adhésion et d'erreurs de posologie. L'observation par MEMS® (Medication Event Monitoring System) permet le suivi et l'encadrement du traitement oral et par le biais d'entretiens semi structurés menés par le pharmacien, ouvre la discussion sur les problèmes révélés par cette prise en charge. Méthode: étude non randomisée prospective uni centrique regroupant 50 patients inclus dans 3 groupes de traitements oncologiques oraux courants (capecitabine, letrozole/exemestane, imatinib/sunitinib) bénéficiant d'un suivi oncologique classique et équipés d'un MEMS® pour un an maximum. La persistance et la qualité d'exécution sont les deux paramètres mesurés grâce aux données récoltées électroniquement. Les entretiens sont dédiés à la prévention de la non adhésion et à la gestion des effets secondaires médicamenteux. La satisfaction est évaluée par un questionnaire à la fin du suivi. Résultats: à ce jour 38 patients ont été inclus dans l'étude. Les données complètes sont disponibles pour les 19 premiers patients dont 10 sous capecitabine et 9 sous letrozole/exemestane. Dans ce collectif l'âge médian est de 66 ans avec une majorité de femmes (11:8). La persistance à 10 jours est de 85% et la qualité d'exécution de 99%. Les toxicités observées supérieures à grade 1 sont 1 syndrome mains-pieds (G3) et 1 syndrome coronarien aigu (G3). Le questionnaire de fin de suivi relève une satisfaction de 85% des patients pour les entretiens proposés (57% utiles, 28% très utiles, 15% inutiles) et le succès quant à l'intégration du MEMS® dans leur quotidien (57% très facile, 43% facile). Conclusion: la persistance et la qualité d'exécution observées dans notre collectif sont excellentes. La satisfaction retrouvée auprès des patients reflète le besoin d'un soutien complémentaire face à la complexité de la maladie oncologique. La gestion pluridisciplinaire profite tant aux patients qu'au binôme médecin-pharmacien par l'amélioration de la communication globale entre les divers acteurs et par l'identification précoce des risques de non adhésion. La poursuite de cette étude et l'analyse des futures données permettra de mesurer le réel impact de notre intervention et de justifier le bénéfice pour des patients sous traitement similaire.
Resumo:
Introduction Le rythmes circadiens influencent différents paramètres de la physiologie et de la physiopathologie cardiovasculaire. Récemment, une relation entre la taille d'un infarctus et l'heure du jour à laquelle il se produit a été suggérée dans des modèles expérimentaux d'infarctus du myocarde. Le but de cette étude a été de déterminer si les rythmes circadiens pouvaient influencer la gravité d'un infarctus en terme de taille et de mortalité chez les patients hospitalisés pour un infarctus du myocarde avec sus-décalage du segment ST (STEMI) ayant bénéficié d'une intervention coronarienne percutanée primaire (ICPP). Méthode Chez 353 patients consécutifs admis avec un STEMI et traités par ICPP, l'heure à la survenue des symptômes, le pic de créatine kinase (reflet de la taille d'un infarctus) et le suivi à 30 jours ont été collectés. Les patients ont été répartis en 4 groupes en fonction de l'heure de survenue de leurs symptômes (00 :00 - 05h59, 06:00 - 11 59 12 00-17h59 et 18h00-23h59). Résultats Aucune différence statistiquement significative n'a été retrouvée entre les différents groupes en ce qui concerne les caractéristiques des patients ou de leur prise en charge. Après analyse multivariée, nous avons mis en évidence une différence statistiquement significative entre les pics de créatine kinase chez les patients avec survenue des symptômes entre 00 :00 et 05:59, qui étaient plus élevés que les pics de créatine kinase chez les patients avec survenue des symptômes à tout autre moment de la journée (augmentation moyenne de 38,4%, ρ <0.05). A 30 jours, la mortalité des patients avec survenue des symptômes entre 00 :00 et 05:59 était également significativement plus élevé que celle des patients avec survenue à tout autre moment de la journée (p <0.05). Conclusion Notre étude démontre une corrélation indépendante entre la taille d'un infarctus STEMI traité par ICPP et le moment de la journée où les symptômes apparaissent. Ces résultats suggèrent que ce moment devrait être un paramètre important à prendre en compte pour évaluer le pronostic des patients.
Resumo:
Latent variable models in finance originate both from asset pricing theory and time series analysis. These two strands of literature appeal to two different concepts of latent structures, which are both useful to reduce the dimension of a statistical model specified for a multivariate time series of asset prices. In the CAPM or APT beta pricing models, the dimension reduction is cross-sectional in nature, while in time-series state-space models, dimension is reduced longitudinally by assuming conditional independence between consecutive returns, given a small number of state variables. In this paper, we use the concept of Stochastic Discount Factor (SDF) or pricing kernel as a unifying principle to integrate these two concepts of latent variables. Beta pricing relations amount to characterize the factors as a basis of a vectorial space for the SDF. The coefficients of the SDF with respect to the factors are specified as deterministic functions of some state variables which summarize their dynamics. In beta pricing models, it is often said that only the factorial risk is compensated since the remaining idiosyncratic risk is diversifiable. Implicitly, this argument can be interpreted as a conditional cross-sectional factor structure, that is, a conditional independence between contemporaneous returns of a large number of assets, given a small number of factors, like in standard Factor Analysis. We provide this unifying analysis in the context of conditional equilibrium beta pricing as well as asset pricing with stochastic volatility, stochastic interest rates and other state variables. We address the general issue of econometric specifications of dynamic asset pricing models, which cover the modern literature on conditionally heteroskedastic factor models as well as equilibrium-based asset pricing models with an intertemporal specification of preferences and market fundamentals. We interpret various instantaneous causality relationships between state variables and market fundamentals as leverage effects and discuss their central role relative to the validity of standard CAPM-like stock pricing and preference-free option pricing.
Resumo:
In the context of multivariate linear regression (MLR) models, it is well known that commonly employed asymptotic test criteria are seriously biased towards overrejection. In this paper, we propose a general method for constructing exact tests of possibly nonlinear hypotheses on the coefficients of MLR systems. For the case of uniform linear hypotheses, we present exact distributional invariance results concerning several standard test criteria. These include Wilks' likelihood ratio (LR) criterion as well as trace and maximum root criteria. The normality assumption is not necessary for most of the results to hold. Implications for inference are two-fold. First, invariance to nuisance parameters entails that the technique of Monte Carlo tests can be applied on all these statistics to obtain exact tests of uniform linear hypotheses. Second, the invariance property of the latter statistic is exploited to derive general nuisance-parameter-free bounds on the distribution of the LR statistic for arbitrary hypotheses. Even though it may be difficult to compute these bounds analytically, they can easily be simulated, hence yielding exact bounds Monte Carlo tests. Illustrative simulation experiments show that the bounds are sufficiently tight to provide conclusive results with a high probability. Our findings illustrate the value of the bounds as a tool to be used in conjunction with more traditional simulation-based test methods (e.g., the parametric bootstrap) which may be applied when the bounds are not conclusive.
Resumo:
This paper proposes finite-sample procedures for testing the SURE specification in multi-equation regression models, i.e. whether the disturbances in different equations are contemporaneously uncorrelated or not. We apply the technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] to obtain exact tests based on standard LR and LM zero correlation tests. We also suggest a MC quasi-LR (QLR) test based on feasible generalized least squares (FGLS). We show that the latter statistics are pivotal under the null, which provides the justification for applying MC tests. Furthermore, we extend the exact independence test proposed by Harvey and Phillips (1982) to the multi-equation framework. Specifically, we introduce several induced tests based on a set of simultaneous Harvey/Phillips-type tests and suggest a simulation-based solution to the associated combination problem. The properties of the proposed tests are studied in a Monte Carlo experiment which shows that standard asymptotic tests exhibit important size distortions, while MC tests achieve complete size control and display good power. Moreover, MC-QLR tests performed best in terms of power, a result of interest from the point of view of simulation-based tests. The power of the MC induced tests improves appreciably in comparison to standard Bonferroni tests and, in certain cases, outperforms the likelihood-based MC tests. The tests are applied to data used by Fischer (1993) to analyze the macroeconomic determinants of growth.
Resumo:
In this paper, we develop finite-sample inference procedures for stationary and nonstationary autoregressive (AR) models. The method is based on special properties of Markov processes and a split-sample technique. The results on Markovian processes (intercalary independence and truncation) only require the existence of conditional densities. They are proved for possibly nonstationary and/or non-Gaussian multivariate Markov processes. In the context of a linear regression model with AR(1) errors, we show how these results can be used to simplify the distributional properties of the model by conditioning a subset of the data on the remaining observations. This transformation leads to a new model which has the form of a two-sided autoregression to which standard classical linear regression inference techniques can be applied. We show how to derive tests and confidence sets for the mean and/or autoregressive parameters of the model. We also develop a test on the order of an autoregression. We show that a combination of subsample-based inferences can improve the performance of the procedure. An application to U.S. domestic investment data illustrates the method.
Resumo:
This paper develops and estimates a game-theoretical model of inflation targeting where the central banker's preferences are asymmetric around the targeted rate. In particular, positive deviations from the target can be weighted more, or less, severely than negative ones in the central banker's loss function. It is shown that some of the previous results derived under the assumption of symmetry are not robust to the generalization of preferences. Estimates of the central banker's preference parameters for Canada, Sweden, and the United Kingdom are statistically different from the ones implied by the commonly used quadratic loss function. Econometric results are robust to different forecasting models for the rate of unemployment but not to the use of measures of inflation broader than the one targeted.
Resumo:
This paper studies monetary policy in an economy where the central banker's preferences are asymmetric around optimal inflation. In particular, positive deviations from the optimum can be weighted more, or less, severely than negative deviations in the policy maker's loss function. It is shown that under asymmetric preferences, uncertainty can induce a prudent behavior on the part of the central banker. Since the prudence motive can be large enough to override the inflation bias, optimal monetary policy could be implemented even in the absence of rules, reputation, or contractual mechanisms. For certain parameter values, a deflationary bias can arise in equilibrium.