995 resultados para Démence du type Alzheimer


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé : L'amygdale latérale (AL) joue un .rôle essentiel dans la plasticité synaptique à la base du conditionnement de la peur. Malgré le faite que la majorité des cellules de l'AL reçoivent les afférentes nécessaires, une potentialisation dans seulement une partie d'entre elles est obligatoire afin que l'apprentissage de la peur ait lieu. Il a été montré que ces cellules expriment la forme active de CREB, et celui-ci a été associé aux cellules dites de type 'nonaccomrnodating' (nAC). Très récemment, une étude a impliqué les circuits récurrents de l'AL dans le conditionnement de la peur. Un lien entre ces deux observations n'a toutefois jamais été établi. t Nous avons utilisé un protocole in vitro de forte activation de l'AL, résultant dans l'induction de 'bursts' provenant de l'hippocampe et se propageant jusqu'à l'AL. Dans l'AL ces 'bursts' atteignent toutes les cellules et se propagent à travers plusieurs chemins. Utilisant ce protocole, nous avons, pour la première fois pu associer dans l'AL, des cellules connectées de manière récurrente avec des cellules de type nAC. Aussi bien dans ces dernières que dans les cellules de type 'accommodating' (AC), une diminution dans la transmission inhibitrice, à la fois exprimée de manière pré synaptique mais également indépendant de la synthèse de protéine a pu être observé. Au contraire, une potentialisation induite et exprimée au niveau pré synaptique ainsi que dépendante de la synthèse de protéine a pu être trouvé uniquement dans les cellules de type nAC. De plus, une hyperexcitabilité, dépendante des récepteurs NMDA a pu être observé, avec une sélection préférentielle des cellules du type nAC dans la génération de bursts. Nous avons également pu démontrer que la transformation d'un certain nombre de cellules de type AC en cellules dites nAC accompagnait cette augmentation générale de l'excitabilité de l'AL. Du faite da la grande quantité d'indices suggérant une connexion entre le système noradrénergique et les états de peur/d'anxiété, les effets d'une forte activation de l'AL sur ce dernier ont été investigués et ont révélés une perte de sa capacité de modulation du 'spiking pattern'. Finalement, des changements au niveau de l'expression d'un certain nombre de gènes, incluant celui codant pour le BDNF, a pu être trouvé à la suite d'une forte activation de l'AL. En raison du lien récemment décrit entre l'expression de la forme active de CREB et des cellules de type nAC ainsi que celui de l'implication des cellules de l'AL connectés de manière récurrente dans l'apprentissage de la peur, nos résultats nous permettent de suggérer un modèle expliquant comment la potentialisation des connections récurrentes entre cellules de type nAC pourrait être à la base de leur recrutement sélectif pendant le conditionnement de la peur. De plus, ils peuvent offrir des indices par rapport aux mécanismes à travers lesquels une sous population de neurones peut être réactivée par une stimulation externe précédemment inefficace, et induire ainsi un signal suffisamment fort pour qu'il soit transmit aux structures efférentes de l'AL. Abstract : The lateral nucleus of the amygdala (LA) is critically involved in the plasticity underlying fear-conditioned learning (Sah et al., 2008). Even though the majority of cells in the LA receive the necessary sensory inputs, potentiation in only a subset is required for fear learning to occur (Repa et al., 2001; Rumpel et al., 2005). These cells express active CREB (CAMP-responsive element-binding protein) (Han et al., 200, and this was related to the non-accommodating (nAC) spiking phenotype (Viosca et al., 2009; Zhou et al., 2009). In addition, a very recent study implicated recurrently connected cells of the LA in fear conditioned learning (Johnson et al., 2008). A link between the two observations has however never been made. In rats, we used an in vitro protocol of strong activation of the LA, resulting in bursting activity, which spread from the hippocampus to the LA. Within the LA, this activity reached all cells and spread via a multitude of pathways. Using this model, we were able to link, for the first time, recurrently connected cells in the LA with cells of the nAC phenotype. While we found a presynaptically expressed, protein synthesis independent decrease in inhibitory synaptic transmission in both nAC and accommodating (AC) cells, only nAC cells underwent a presynaptically induced and expressed, protein synthesis dependent potentiation. Moreover we observed an NMDA dependent hyperexcitability of the LA, with a preferential selection of nAC cells into burst generation. The transformation of a subset of AC cells into nAC cells accompanied this general increase in LA excitability. Given the considerable evidence suggesting a relationship between the central noradrenergic (NA) system and fear/anxiety states (Itoi, 2008), the effects of strong activation of the LA on the noradrenergic system were investigated, which revealed a loss of its modulatory actions on cell spiking patterns. Finally, we found changes in the expression levels of a number of genes; among which the one coding for $DNF, to be induced by strong activation of the LA. In view of the recently described link between nAC cells and expression of pCREB (phosphorylated cAMP-responsive element-binding protein) as well as the involvement of recurrently connected cells of the LA in fear-conditioned learning, our findings may provide a model of how potentiation of recurrent connections between nAC neurons underlies their recruitment into the fear memory trace. Additionally, they may offer clues as to the mechanisms through which a selected subset of neurons can be reactivated by smaller, previously ineffective external stimulations to respond with a sufficiently strong signal, which can be transmitted to downstream targets of the LA.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction et But de l'étude. - La plupart des études d'évaluation de la nutrition en réanimation concernent les patients ventilés bénéficiant d'un support nutritionnel artificiel. La nutrition per os qui concerne les patients les moins graves ou sortis de la phase critique est peu étudiée. Cette étude observationnelle, menée dans le cadre d'un travail de Bachelor en collaboration avec les Hôpitaux Universitaires de Genève, a pour objectif de réaliser un état des lieux des pratiques nutritionnelles actuelles, tous patients confondus, dans un service de réanimation médico-chirurgicale, et de mesurer la couverture des besoins énergétiques en fonction du type de nutrition administré ou consommé. Matériel et Méthodes. - Inclusion de tous les patients adultes hospitalisés pour plus de 24 h en réanimation durant 6 semaines consécutives, suivis jusqu'à la sortie du service mais pendant 14 jours au maximum. Les apports caloriques entéraux et parentéraux ont été récoltés dans le dossier patient informatisé. Les apports per os ont été estimés sur la base de la composition nutritionnelle standard des repas servis et le report infirmier des quantités consommées. Les suppléments nutritifs oraux ont été inclus dans les apports per os. Les solutés glucosés et les dilutions de médicaments n'ont pas été comptabilisés. La cible calorique a été fixée à 30 kcal/kg pour les hommes et 25 kcal/kg pour les femmes, sur la base du poids mesuré ou anamnestique ou sur le poids correspondant à un BMI de 22,5 en cas d'obésité. Résultats. - Six cent quatre-vingt douze journées-patients ont été analysées, issues de 114 patients dont le score SAPS II moyen est de 43. Toutes journées confondues (sans tenir compte du début ou fin de séjour) : 44 % (n = 307) des journées sont sous NE exclusive, 9 % (n = 64) sous NP exclusive et 7 % (n = 47) combinent ces deux types d'apports. La nutrition per os exclusive représente 17 % (n = 116) des journées et 23 % (n = 158) ne comportent aucun apport nutritionnel. Lorsque l'on s'intéresse au pour centage d'atteinte de la cible calorique selon le type de nutrition, il se répartit comme tel (médiane ± espace interquartile) : NE : 83 ± 44 % ; NP : 84 ± 75 % ; combiné : 95 ± 39 % ; per os : 28 ± 33 %. La nutrition per os se retrouve en fin de séjour mais pas uniquement puisque seules un peu plus de la moitié des journées de nutrition per os ont lieu lors du dernier (35 %) ou de l'avant dernier (28 %) jour du séjour. L'atteinte de la cible calorique par la nutrition per os exclusive évolue peu au long du séjour. Conclusion. - La nutrition per os représente le mode d'alimentation d'un nombre important de journées dans cette observation. La très faible couverture des besoins caloriques lors de ces journées, tout au long du séjour, classe ces patients dans une catégorie à risque nutritionnel important. Une évaluation plus précise des apports protéino-énergétique devrait être réalisée afin de quantifier plus exactement les déficits et un suivi de l'évolution de ces patients apporterait un éclairage important.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nanoparticles (NPs) have gained a lot of interest in recent years due to their huge potential for applications in industry and medicine. Their unique properties offer a large number of attractive possibilities in the biomedical field, providing innovative tools for diagnosis of diseases and for novel therapies. Nevertheless, a deep understanding of their interactions with living tissues and the knowledge about their possible effects in the human body are necessary for the safe use of nanoparticulate formulations. The aim of this PhD project was to study in detail the interactions of therapeutic NPs with living cells, including cellular uptake and release, cellular localization and transport across the cell layers. Moreover, the effects of NPs on the cellular metabolic processes were determined using adapted in vitro assays. We evaluated the biological effect of several NPs potentially used in the biomedical field, including titanium dioxide (Ti02) NPs, 2-sized fluorescent silica NPs, ultrasmall superparamagnetic iron oxide (USPIO) NPs, either uncoated or coated with oleic acid or with polyvinylamine (aminoPVA) and poly(lactic-co-glycolic acid) - polyethylene-oxide (PLGA-PEO) NPs. We have found that the NPs were internalized by the cells, depending on their size, chemical composition, surface coating and also depending on the cell line considered. The uptake of aminoPVA-coated USPIO NPs by endothelial cells was enhanced in the presence of an external magnetic field. None of the tested USPIO NPs and silica NPs was transported across confluent kidney cell layers or brain endothelial cell layers, even in the presence of a magnetic field. However, in an original endothelium-glioblastoma barrier model which was developed, uncoated USPIO NPs were directly transferred from endothelial cells to glioblastoma cells. Following uptake, Ti02 NPs and uncoated USPIO NPs were released by the kidney cells, but not by the endothelial cells. Furthermore, these NPs induced an oxidative stress and autophagy in brain endothelial cells, possibly associated with their enhanced agglomeration in cell medium. A significant DNA damage was found in brain endothelial cells after their exposure to TiO2NPs. Altogether these results extend the existing knowledge about the effects of NPs on living cells with regard to their physicochemical characteristics and provide interesting tools for further investigation. The development of the in vitro toxicological assays with a special consideration for risk evaluation aims to reduce the use of animal experiments. -Les nanoparticules (NPs) présentent beaucoup d'intérêt dans le domaine biomédical et industriel. Leurs propriétés uniques offrent un grand nombre de possibilités de solutions innovantes pour le diagnostique et la thérapie. Cependant, pour un usage sûr des NPs il est nécessaire d'acquérir une connaissance approfondie des mécanismes d'interactions des NPs avec les tissus vivants et de leur effets sur le corps humain. Le but de ce projet de thèse était d'étudier en détail les mécanismes d'interactions de NPs thérapeutiques avec des cellules vivantes, en particulier les mécanismes d'internalisation cellulaire et leur subséquente sécrétion par les cellules, leur localisation cellulaire, leur transport à travers des couches cellulaires, et l'évaluation des effets de NPs sur le métabolisme cellulaire, en adaptant les méthodes existante d'évaluation cyto-toxico logique s in vitro. Pour ces expériences, les effets biologiques de nanoparticules d'intérêt thérapeutique, telles que des NPs d'oxyde de titane (TiO2), des NPs fluorescents de silicate de 2 tailles différentes, des NPs, d'oxyde de fer super-para-magnétiques ultra-petites (USPIO), soit non- enrobées soit enrobées d'acide oléique ou de polyvinylamine (aminoPVA), et des NPs d'acide poly(lactique-co-glycolique)-polyethylene-oxide (PLGA-PEO) ont été évalués. Les résultats ont démontré que les NPs sont internalisées par les cellules en fonction de leur taille, composition chimique, enrobage de surface, et également du type de cellules utilisées. L'internalisation cellulaire des USPIO NPs a été augmentée en présence d'un aimant externe. Aucune des NPs de fer et de silicate n'a été transportée à travers des couches de cellules épithéliales du rein ou endothéliales du cerveau, même en présence d'un aimant. Cependant, en développant un modèle original de barrière endothélium-glioblastome, un transfert direct de NPs d'oxyde de fer de cellule endothéliale à cellule de glioblastome a été démontré. A la suite de leur internalisation les NPs d'oxyde de fer et de titane sont relâchées par des cellules épithéliales du rein, mais pas des cellules endothéliales du cerveau. Dans les cellules endothéliales du cerveau ces NPs induisent en fonction de leur état d'agglomération un stress oxydatif et des mécanismes d'autophagie, ainsi que des dommages à l'ADN des cellules exposées aux NPs d'oxyde de titane. En conclusion, les résultats obtenus élargissent les connaissances sur les effets exercés par des NPs sur des cellules vivantes et ont permis de développer les outils expérimentaux pour étudier ces effets in vitro, réduisant ainsi le recours à des expériences sur animaux.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Par la mise en évidence des acteurs, des processus et des institutions et par conséquent de la diversité ainsi que des contingences des marchés immobiliers, la littérature actuelle sur l'immobilier insiste sur les nombreux liens et interdépendances entre l'immobilier, le foncier, l'urbanisme et les politiques urbaines ou encore avec le système financier. Toutefois, l'essentiel de ces recherches se sont focalisées sur les métropoles négligeant ainsi les autres espaces. L'objectif de cet article est de mieux comprendre le marché immobilier grâce à une démarche de déconstruction, puis de réarticulation. La déconstruction a consisté à identifier différentes logiques de marché en fonction du type d'objet (principalement des immeubles résidentiels), des acteurs et institutions, des contextes territoriaux et des temporalités, sur la base de recherches menées en Suisse. Une métasynthèse a été ensuite élaborée. Elle s'appuie sur les « trois étages » développés dans les travaux de Fernand Braudel (1985) qui rend compte dans ses travaux des activités économiques tant au quotidien que sur la longue durée, tant à l'échelle locale que planétaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'objectif de ce travail est le développement d'une méthode de caractérisation objective de la qualité d'image s'appliquant à des systèmes de mammographie analogique, utilisant un couple écran-film comme détecteur, et numérique, basé sur une technologie semi-conductrice, ceci en vue de la comparaison de leurs performances. La méthode développée tient compte de la gamme dynamique du détecteur, de la détectabilité de structures de haut contraste, simulant des microcalcifications, et de structures de bas contraste, simulant des opacités (nodules tumoraux). La méthode prend également en considération le processus de visualisation de l'image, ainsi que la réponse de l'observateur. Pour réaliser ceci, un objet-test ayant des propriétés proches de celles d'un sein comprimé, composé de différents matériaux équivalents aux tissus, allant du glandulaire à l'adipeux, et comprenant des zones permettant la simulation de structures de haut et bas contraste, ainsi que la mesure de la résolution et celle du bruit, a été développé et testé. L'intégration du processus de visualisation a été réalisée en utilisant une caméra CCD mesurant directement les paramètres de qualité d'image, à partir de l'image de l'objet-test, dans une grandeur physique commune au système numérique et analogique, à savoir la luminance arrivant sur l'oeil de l'observateur. L'utilisation d'une grandeur synthétique intégrant dans un même temps, le contraste, le bruit et la résolution rend possible une comparaison objective entre les deux systèmes de mammographie. Un modèle mathématique, simulant la réponse d'un observateur et intégrant les paramètres de base de qualité d'image, a été utilisé pour calculer la détectabilité de structures de haut et bas contraste en fonction du type de tissu sur lequel celles-ci se trouvent. Les résultats obtenus montrent qu'à dose égale la détectabilité des structures est significativement plus élevée avec le système de mammographie numérique qu'avec le système analogique. Ceci est principalement lié au fait que le bruit du système numérique est plus faible que celui du système analogique. Les résultats montrent également que la méthodologie, visant à comparer des systèmes d'imagerie numérique et analogique en utilisant un objet-test à large gamme dynamique ainsi qu'une caméra, peut être appliquée à d'autres modalités radiologiques, ainsi qu'à une démarche d'optimisation des conditions de lecture des images.<br/><br/>The goal of this work was to develop a method to objectively compare the performance of a digital and a screen-film mammography system in terms of image quality and patient dose. We propose a method that takes into account the dynamic range of the image detector and the detection of high contrast (for microcalcifications) and low contrast (for masses or tumoral nodules) structures. The method also addresses the problems of image visualization and the observer response. A test object, designed to represent a compressed breast, was constructed from various tissue equivalent materials ranging from purely adipose to purely glandular composition. Different areas within the test object permitted the evaluation of low and high contrast detection, spatial resolution, and image noise. All the images (digital and conventional) were captured using a CCD camera to include the visualization process in the image quality assessment. In this way the luminance reaching the viewer?s eyes can be controlled for both kinds of images. A global quantity describing image contrast, spatial resolution and noise, and expressed in terms of luminance at the camera, can then be used to compare the two technologies objectively. The quantity used was a mathematical model observer that calculates the detectability of high and low contrast structures as a function of the background tissue. Our results show that for a given patient dose, the detection of high and low contrast structures is significantly better for the digital system than for the conventional screen-film system studied. This is mainly because the image noise is lower for the digital system than for the screen-film detector. The method of using a test object with a large dynamic range combined with a camera to compare conventional and digital imaging modalities can be applied to other radiological imaging techniques. In particular it could be used to optimize the process of radiographic film reading.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Plus de 300 millions de personnes dans le monde souffrent de l'asthme. L'asthme est une maladie inflammatoire chronique des voies respiratoires caractérisée par des symptômes variables et récurrents, une obstruction bronchique réversible et des bronchospasmes. Les symptômes communs incluent une respiration sifflante, de la toux, une oppression thoracique et de la dyspnée. Normalement, la maladie commence à se manifester pendant l'enfance. Pourtant, facteurs génétiques héréditaires et événements environnementaux survenant au cours de la petite enfance sont responsables de sa manifestation, indiquant que le développement de la maladie est lié à des événements qui se produisent bien avant son déclenchement. L'infection respiratoire virale aiguë constitue un de ces facteurs environnementaux jouant un rôle prépondérant. Un des virus les plus communs est le virus respiratoire syncytial (VRS), qui infecte presque tous les enfants avant l'âge de 2 ans. Ce virus, s'il infecte des tout-petits, peut en effet provoquer une bronchiolite aiguë, un phénomène qui a été épidémiologiquement lié à l'apparition d'asthme plus tard dans la vie. Dans le premier chapitre de cette thèse, nous avons étudié, chez la souris, comment une infection avec le VRS influe sur l'asthme allergique. Nous avons constaté que seule l'infection des souris à l'état de nouveau-né prédispose à un asthme allergique plus sévère chez l'adulte. En effet, si des souris adultes étaient infectées, elles étaient protégées contre l'apparition des symptômes asthmatiques. Cela nous a mené à investiguer les mécanismes immunitaires spécifiques durant cette courte période du début de la vie. Deux événements se produisent en parallèle au cours de la petite enfance: (1) Le système immunitaire, qui est encore immature immédiatement après la naissance, commence à se développer pour être en mesure de jouer son rôle protecteur contre les agents infectieux. (2) Le corps, y compris les poumons, est colonisé par des bactéries commensales, qui vivent en symbiose avec leur hôte humain. Chez l'adulte, ces bactéries sont connues pour influencer notre système immunitaire, l'éduquant à générer des réponses immunitaires adéquates et efficaces. Dans la deuxième partie de cette thèse, nous avons voulu déterminer si ces bactéries symbiotiques étaient impliquées dans l'éducation du système immunitaire du nouveau-né et quelles conséquences cela pourrait avoir sur les réponses immunitaires engendrées par ce dernier. Pour étudier l'effet de ces bactéries symbiotiques, nous avons utilisé des souris stériles, en d'autres termes des souris qui n'hébergent pas ces bactéries symbiotiques. En comparant ces souris stériles à des souris qui abritent une flore microbienne normale, nous avons constaté que les bactéries symbiotiques sont vitales pour la bonne éducation du système immunitaire du nouveau-né. Nous avons démontré que le contact direct des cellules immunitaires avec la flore microbienne dans les poumons modifie le phénotype de ces cellules immunitaires, ce qui change probablement leur réaction au cours de réponses immunitaires. Nous avons donc vérifié si l'éducation immunitaire induite par cette microflore est importante pour prévenir les maladies pulmonaires telles que l'asthme allergique, affections qui sont causées par une réaction excessive du système immunitaire envers des agents inoffensifs. En effet, nous avons observé que le processus de maturation du système immunitaire néonatal, lequel a été déclenché et façonné par la flore microbienne, est important pour éviter une réaction asthmatique exagérée chez la souris adulte. Ce phénomène est dû aux lymphocytes T régulateurs. Ces cellules, dont la présence est induite dans les poumons, ont des capacités immunosuppressives et atténuent donc les réponses immunitaires pour prévenir une inflammation excessive. En conclusion, nous avons montré dans cette thèse que la colonisation par des bactéries symbiotiques tôt dans la vie est un événement décisif pour la maturation du système immunitaire et pour prévenir le développement de l'asthme. Dans l'avenir, il serait intéressant de découvrir quelles bactéries sont présentes dans les poumons du nouveau-né et lesquelles sont directement impliquées dans ce processus de maturation immunitaire. Une prochaine étape serait alors de favoriser la présence de ces bactéries au début de la vie au moyen d'un traitement avec des agents pré- ou probiotiques, ce qui pourrait éventuellement contribuer à une prévention précoce du développement de l'asthme. -- L'asthme est une maladie chronique inflammatoire des voies respiratoires affectant près de 300 millions d'individus dans le monde. Bien que les traits caractéristiques du phénotype asthmatique s'établissent généralement pendant l'enfance, la prédisposition au développement de la maladie est intimement liée à des événements survenant durant la petite enfance, comme le sont par exemple les infections virales respiratoires aiguës. Les mécanismes par lesquels ces événements provoquent un dysfonctionnement immunitaire et, par conséquent, conduisent au développement de l'asthme n'ont pas encore été entièrement décelés. La dysbiose du microbiote des voies respiratoires a été récemment associes au phénotype asthmatique, touisTcis, la cuûoboiatioî! d un lien cause à effet entre la dysbiose microbienne et l'apparition des symptômes asthmatiques reste à être démontrée. Dans cette thèse, nous avons étudié le rôle que joue la colonisation microbienne des voies respiratoires au cours de la petite enfance dans la maturation du système immunitaire ainsi que dans la protection contre l'inflammation pulmonaire de type allergique. Nous avons de surcroît développé un modèle expérimental pour comprendre comment les infections virales respiratoires interfèrent avec ce processus. Dans la première partie de cette thèse, nous avons évalué l'effet d'infections causées par le virus respiratoire syncytial (VRS) sur le développement de l'asthme. En accord avec des études épidémiologiques, nous avons constaté qu'une infection au VRS lors de la période néonatale exacerbait les réponses pulmonaires allergiques ultérieures. Par contraste, une infection à l'âge adulte avait un effet protecteur. Nous avons ainsi démontré que l'influence d'une infection à VRS sur l'issue et la sévérité de l'asthme respiratoire était strictement dépendante de l'âge. Ces résultats nous ont conduit à émettre l'hypothèse que des différences dans le phénotype homéostatique des cellules immunitaires pourraient être responsables de ces disparités liées à l'âge. Par conséquent, dans la deuxième partie de cette thèse, nous avons suivi et caractérisé le processus de maturation des cellules immunitaires dans les poumons du nouveau-né en condition d'homéostasie. Nous avons découvert que leur phénotype change de façon dynamique pendant le développement néonatal et que la colonisation par des microbes était déterminante pour la maturation des cellules immunitaires dans les poumons. Dans la dernière partie de cette thèse, nous avons démontré comment le microbiote pulmonaire éduque le développement immunitaire durant la période néonatale l'orientant de manière à induire une tolérance face aux aéroallergènes. Nous avons découvert que la colonisation microbienne des voies respiratoires provoque une expression transitoire de PD-L1 sur les cellules dendritiques (CD) pulmonaires du type CD11b+ dans les deux premières semaines de la vie. Cet événement engendre par la suite la génération de lymphocytes T régulateurs (TREG) dans les poumons, lesquels sont responsables de la protection contre une réponse inflammatoire allergique exagérée chez la souris adulte. Par conséquent, nous proposons un rôle pivot de la maturation immunitaire induite par le microbiote pulmonaire dans l'établissement de la tolérance aux aéroallergènes. En conclusion, les résultats présentés dans cette thèse fournissent de nouveaux indices révélant comment des événements se produisant lors de la petite enfance peuvent façonner les réponses du système immunitaire dirigées contre les allergènes et soulignent le rôle central joué par le microbiote pulmonaire dans l'édification d'une réponse immunitaire équilibrée. En résumé, notre travail met en évidence le microbiote pulmonaire comme étant une cible potentielle pour la prévention de certaines maladies respiratoires. -- Asthma is a chronic inflammatory disorder of the respiratory tract and affects approximately 300 million individuals world-wide. Although the asthmatic phenotype commonly establishes during childhood, predisposition towards disease development has been linked to events in early infancy, such as severe respiratory viral infections. However, the mechanisms by which these events cause immune dysfunction and, therefore, lead to the development of asthma have yet to be fully deciphered. Dysbiosis of the airway microbiota has recently been associated with the asthmatic phenotype; however, conclusive evidence for a causal link between microbial dysbiosis in the ail ways and asthma development is still missing. In this thesis we investigated the role of early-life microbial airway colonization in immune maturation and the protection against allergic airway inflammation and established an experimental model to address how respiratory viral infections interfere in this process. In the first part of this thesis we evaluated the effect of Respiratory syncytial virus (RSV) infections on the development of asthma. In concurrence with epidemiological studies, we found that neonatal infection exacerbated subsequent allergic airway inflammation. In contrast, adult infection was protective in the same context. Thus, we could demonstrate that the influence of RSV infection on subsequent allergic airway responses was strictly age-dependent. These findings led us to the hypothesis that differences in the homeostatic phenotype of immune cells could be responsible for the age-related disparities seen within the context of RSV. Therefore, in a second part of this thesis, we followed the process of homeostatic immune cell maturation in the neonatal lung. Immune cell phenotypes changed dynamically during neonatal development. We discovered that the colonization with microbes was central to the maturation of immune cells in the lung. In the last part of this thesis, we demonstrated how microbiota-driven immune development during the neonatal period induces tolerance against aeroallergens. We discovered that microbial colonization led to a transient programmed death-ligand (PD-L) 1 expression on CD11b+ pulmonary dendritic cells (DCs) during the first two weeks of life. This in turn induced regulatory T (TREG) cells in the lung, which were responsible for the protection against exaggerated allergic airway inflammation in adult mice. Thus, we propose a key role for microbiota-driven immune maturation in the establishment of tolerance towards aeroallergens. In conclusion, the results presented in this thesis provide new insights into how early-life events shape pulmonary immune responses towards allergens and suggest the airway microbiota as a key player in establishing a balanced immune response. Overall, our work highlights the airway microbiota as potential target for disease prevention.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cet article montre, en premier lieu, que le degré d'investissement politico-moral des policières et des policiers dans leur métier est fortement variable. Si une partie des individus nouvellement entrés dans la police expriment un sentiment de distance sociale doublé d'une distinction morale par rapport à la population, d'autres ne s'investissement pas dans leur métier comme dans une « croisade morale » (Becker, 1985 [1963]), et estiment au contraire que les justiciables appartiennent à la même « communauté morale » (Fassin, 2011, p. 313) qu'eux-mêmes. La perspective adoptée prolonge ainsi les critiques des approches classiques de la « culture policière », qui ont démontré leur caractère trop uniformisant et leurs biais mécaniste. Parmi les études de sociologie de la police n'ayant pas adopté une telle approche, celle de W. Ker Muir (1977), pourtant ancienne, a montré que tous les policiers ne vivaient pas leur appartenance au groupe professionnel sur le mode d'une distinction morale d'avec les justiciables. Aucune autre étude n'a pourtant traité des variations dans l'investissement politico moral des policières et des policiers, et n'a donc tenté d'en fournir des explications. Le second axe d'analyse vise ainsi à combler ce déficit explicatif, en montrant que l'investissement politico-moral dans le métier dépend largement de la trajectoire antérieure des individus recrutés dans la police, en particulier des expériences de pertes de statut qu'ils ont pu subir, ainsi que du type de stratégies d'ascension sociale ou de récupération de ce statut qu'ils mettent en place.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Second-generation antipsychotics (SGAs) have become the first-line antipsychotic treatment for psychotic disorders due to their better overall tolerance compared to classical antipsychotics. However, metabolic side effects such as weight gain are frequently described during treatment with SGAs and/or other psychotropic drugs including some antidepressants and mood stabilizers, which may also result in poor adherence to treatment. The aim of this work was to investigate different methods to predict common side effects, in particular weight gain during treatment with weight gain inducing psychotropic drugs. Firstly, clinical data were used to determine the potential predictive power of a one month weight gain on weight increase after three and 12 months of treatment (n=351 patients). A fast and strong weight gain of >5% after a period of one month (>5%WG) was found to be the best predictor for an important weight gain at three (>15%) and 12 months (>20%). Similar analyses in an independent cohort of psychiatric adolescents (n=42), showed that a comparable >4% weight gain at one month is the best predictor for an important weight gain at three months (>15%). Secondly, we aimed to determine whether an extensive analysis of genes could be used, in addition to clinical factors, to predict patients at risk for >5%WG or for type 2 diabetes (T2D). Adding genetic markers to clinical variables to predict >5%WG increased significantly the area under the curve (AUC) of the analysis (AUCfinai:0.92, AUCdmicai:0.75, pcO.OOOl, n=248). Conversely, genetic risk scores were found to be associated with T2D (OR: 2.5, p=0.03, n=285) but without a significant increase of AUC'when compared to the prediction based to clinical factors alone. Finally, therapeutic drug monitoring was used to predict extrapyramidal symptoms during risperidone treatment (n=150). Active moiety (sum of risperidone and of its active metabolite 9- hydroxyrisperidone plasma concentrations) of >40 ng/ml should be targeted only in case of insufficient response. These results highlight different approaches for personalizing psychotropic treatments in order to reduce related side effects. Further research is needed, in particular on the identification of genetic markers, to improve the implementation of these results into clinical practice. Résumé Les antipsychotiques atypiques (APA) sont devenus le traitement antipsychotique de première intention pour le traitement des psychoses, grâce à un profil d'effets secondaires plus favorables comparé aux antipsychotiques typiques. Néanmoins, d'autres effets indésirables d'ordre métabolique (ex. prise pondérale) sont observés sous APA, stabilisateurs de l'humeur et/ou certains antidépresseurs, pouvant aussi limiter l'adhérence au traitement. L'objectif de ce travail est d'explorer différentes méthodes permettant de prédire des effets secondaires courants, en particulier la prise de poids durant un traitement avec des psychotropes pouvant induire un tel effet. Dans une première partie, des données cliniques ont été évaluées pour leurs potentiels prédictifs d'une prise de poids à un mois sur une prise de poids à trois et 12 mois de traitement (n=351 patients). Une prise de poids rapide et forte >5% à un mois (PP>5%) s'est avérée être le meilleur prédicteur pour une prise pondérale importante à trois (>15%) et 12 (>20%) mois de traitement. Des analyses similaires dans une cohorte pédiatrique (n=42) ont indiqué une prise de poids >4% à un mois comme le meilleur prédicteur pour une prise pondérale importante (>15%) à trois mois de traitement. Dans une deuxième partie, des marqueurs génétiques, en complément aux données cliniques, ont été analysés pour leur contribution potentielle à la prédiction d'une PP>5% et au dépistage du diabète de type 2 (DT2). L'ajout de variants génétiques aux données cliniques afin de prédire une PP>5% a augmenté significativement l'aire sous la courbe (ASC) de l'analyse (ASCflnai:0.92, ASCC|inique:0.75, p<0.0001, n=248). Concernant le DT2, un score génétique est associé au DT2 (OR: 2.5, p=0.03, n=285), néanmoins aucune augmentation significative de l'ASC n'a été observée par rapport à l'analyse avec les données cliniques seules. Finalement, des mesures de concentrations plasmatiques de médicaments ont été utilisées pour prédire la survenue de symptômes extrapyramidaux sous rispéridone (n=150). Cette analyse nous a permis d'établir qu'une concentration plasmatique de rispéridone associée à son métabolite actif >40 ng/ml ne devrait être recherchée qu'en cas de réponse clinique insuffisante. Ces différents résultats soulignent différentes approches pour personnaliser la prescription de psychotropes afin de réduire la survenue d'effets secondaires. Des études supplémentaires sont néanmoins nécessaires, en particulier sur l'identification de marqueurs génétiques, afin d'améliorer l'implémentation de ces résultats en pratique clinique. Résumé large publique Les antipsychotiques atypiques et autres traitements psychotropes sont couramment utilisés pour traiter les symptômes liés à la schizophrénie et aux troubles de l'humeur. Comme pour tout médicament, des effets secondaires sont observés. L'objectif de ce travail est d'explorer différentes méthodes qui permettraient de prédire la survenue de certains effets indésirables, en particulier une prise de poids et la survenue d'un diabète. Dans une première partie, nous avons évalué l'effet d'une prise de poids précoce sur une prise de poids au long terme sous traitement psychotrope. Les analyses ont mis en évidence dans une population psychiatrique qu'une prise de poids à un mois >5% par rapport au poids initial permettait de prédire une prise pondérale importante après trois (>15%) et 12 (>20%) mois de traitement. Un résultat semblable a. été observé dans un autre groupe de patients exclusivement pédiatriques. Dans une deuxième partie, nous avons évalué la contribution potentielle de marqueurs génétiques à la prédiction d'une prise pondérale de >5% après un mois de traitement ainsi que dans la survenue d'un diabète de type 2. Pour la prise de poids, la combinaison des données génétiques aux données cliniques a permis d'augmenter de 17% la précision de la prédiction, en passant de 70% à 87%. Concernant la survenue d'un diabète, les données génétiques n'ont pas amélioré la prédiction. Finalement, nous avons analysé la relation possible entre les concentrations sanguines d'un antipsychotique atypique couramment utilisé, la rispéridone, et la survenue d'effets secondaires (ici les tremblements). Il est ressorti de cette étude qu'une concentration plasmatique du médicament supérieure à 40 ng/ml ne devrait être dépassée qu'en cas de réponse thérapeutique insuffisante, au risque de voir augmenter la survenue d'effets secondaires du type tremblements. Ces résultats démontrent la possibilité de prédire avec une bonne précision la survenue de certains effets secondaires. Cependant, en particulier dans le domaine de la génétique, d'autres études sont nécessaires afin de confirmer les résultats obtenus dans nos analyses. Une fois cette étape franchie, il serait possible d'utiliser ces outils dans la pratique clinique. A terme, cela pourrait permettre au prescripteur de sélectionner les traitements les mieux adaptés aux profils spécifiques de chaque patient.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Understanding and quantifying seismic energy dissipation, which manifests itself in terms of velocity dispersion and attenuation, in fluid-saturated porous rocks is of considerable interest, since it offers the perspective of extracting information with regard to the elastic and hydraulic rock properties. There is increasing evidence to suggest that wave-induced fluid flow, or simply WIFF, is the dominant underlying physical mechanism governing these phenomena throughout the seismic, sonic, and ultrasonic frequency ranges. This mechanism, which can prevail at the microscopic, mesoscopic, and macroscopic scale ranges, operates through viscous energy dissipation in response to fluid pressure gradients and inertial effects induced by the passing wavefield. In the first part of this thesis, we present an analysis of broad-band multi-frequency sonic log data from a borehole penetrating water-saturated unconsolidated glacio-fluvial sediments. An inherent complication arising in the interpretation of the observed P-wave attenuation and velocity dispersion is, however, that the relative importance of WIFF at the various scales is unknown and difficult to unravel. An important generic result of our work is that the levels of attenuation and velocity dispersion due to the presence of mesoscopic heterogeneities in water-saturated unconsolidated clastic sediments are expected to be largely negligible. Conversely, WIFF at the macroscopic scale allows for explaining most of the considered data while refinements provided by including WIFF at the microscopic scale in the analysis are locally meaningful. Using a Monte-Carlo-type inversion approach, we compare the capability of the different models describing WIFF at the macroscopic and microscopic scales with regard to their ability to constrain the dry frame elastic moduli and the permeability as well as their local probability distribution. In the second part of this thesis, we explore the issue of determining the size of a representative elementary volume (REV) arising in the numerical upscaling procedures of effective seismic velocity dispersion and attenuation of heterogeneous media. To this end, we focus on a set of idealized synthetic rock samples characterized by the presence of layers, fractures or patchy saturation in the mesocopic scale range. These scenarios are highly pertinent because they tend to be associated with very high levels of velocity dispersion and attenuation caused by WIFF in the mesoscopic scale range. The problem of determining the REV size for generic heterogeneous rocks is extremely complex and entirely unexplored in the given context. In this pilot study, we have therefore focused on periodic media, which assures the inherent self- similarity of the considered samples regardless of their size and thus simplifies the problem to a systematic analysis of the dependence of the REV size on the applied boundary conditions in the numerical simulations. Our results demonstrate that boundary condition effects are absent for layered media and negligible in the presence of patchy saturation, thus resulting in minimum REV sizes. Conversely, strong boundary condition effects arise in the presence of a periodic distribution of finite-length fractures, thus leading to large REV sizes. In the third part of the thesis, we propose a novel effective poroelastic model for periodic media characterized by mesoscopic layering, which accounts for WIFF at both the macroscopic and mesoscopic scales as well as for the anisotropy associated with the layering. Correspondingly, this model correctly predicts the existence of the fast and slow P-waves as well as quasi and pure S-waves for any direction of wave propagation as long as the corresponding wavelengths are much larger than the layer thicknesses. The primary motivation for this work is that, for formations of intermediate to high permeability, such as, for example, unconsolidated sediments, clean sandstones, or fractured rocks, these two WIFF mechanisms may prevail at similar frequencies. This scenario, which can be expected rather common, cannot be accounted for by existing models for layered porous media. Comparisons of analytical solutions of the P- and S-wave phase velocities and inverse quality factors for wave propagation perpendicular to the layering with those obtained from numerical simulations based on a ID finite-element solution of the poroelastic equations of motion show very good agreement as long as the assumption of long wavelengths remains valid. A limitation of the proposed model is its inability to account for inertial effects in mesoscopic WIFF when both WIFF mechanisms prevail at similar frequencies. Our results do, however, also indicate that the associated error is likely to be relatively small, as, even at frequencies at which both inertial and scattering effects are expected to be at play, the proposed model provides a solution that is remarkably close to its numerical benchmark. -- Comprendre et pouvoir quantifier la dissipation d'énergie sismique qui se traduit par la dispersion et l'atténuation des vitesses dans les roches poreuses et saturées en fluide est un intérêt primordial pour obtenir des informations à propos des propriétés élastique et hydraulique des roches en question. De plus en plus d'études montrent que le déplacement relatif du fluide par rapport au solide induit par le passage de l'onde (wave induced fluid flow en anglais, dont on gardera ici l'abréviation largement utilisée, WIFF), représente le principal mécanisme physique qui régit ces phénomènes, pour la gamme des fréquences sismiques, sonique et jusqu'à l'ultrasonique. Ce mécanisme, qui prédomine aux échelles microscopique, mésoscopique et macroscopique, est lié à la dissipation d'énergie visqueuse résultant des gradients de pression de fluide et des effets inertiels induits par le passage du champ d'onde. Dans la première partie de cette thèse, nous présentons une analyse de données de diagraphie acoustique à large bande et multifréquences, issues d'un forage réalisé dans des sédiments glaciaux-fluviaux, non-consolidés et saturés en eau. La difficulté inhérente à l'interprétation de l'atténuation et de la dispersion des vitesses des ondes P observées, est que l'importance des WIFF aux différentes échelles est inconnue et difficile à quantifier. Notre étude montre que l'on peut négliger le taux d'atténuation et de dispersion des vitesses dû à la présence d'hétérogénéités à l'échelle mésoscopique dans des sédiments clastiques, non- consolidés et saturés en eau. A l'inverse, les WIFF à l'échelle macroscopique expliquent la plupart des données, tandis que les précisions apportées par les WIFF à l'échelle microscopique sont localement significatives. En utilisant une méthode d'inversion du type Monte-Carlo, nous avons comparé, pour les deux modèles WIFF aux échelles macroscopique et microscopique, leur capacité à contraindre les modules élastiques de la matrice sèche et la perméabilité ainsi que leur distribution de probabilité locale. Dans une seconde partie de cette thèse, nous cherchons une solution pour déterminer la dimension d'un volume élémentaire représentatif (noté VER). Cette problématique se pose dans les procédures numériques de changement d'échelle pour déterminer l'atténuation effective et la dispersion effective de la vitesse sismique dans un milieu hétérogène. Pour ce faire, nous nous concentrons sur un ensemble d'échantillons de roches synthétiques idéalisés incluant des strates, des fissures, ou une saturation partielle à l'échelle mésoscopique. Ces scénarios sont hautement pertinents, car ils sont associés à un taux très élevé d'atténuation et de dispersion des vitesses causé par les WIFF à l'échelle mésoscopique. L'enjeu de déterminer la dimension d'un VER pour une roche hétérogène est très complexe et encore inexploré dans le contexte actuel. Dans cette étude-pilote, nous nous focalisons sur des milieux périodiques, qui assurent l'autosimilarité des échantillons considérés indépendamment de leur taille. Ainsi, nous simplifions le problème à une analyse systématique de la dépendance de la dimension des VER aux conditions aux limites appliquées. Nos résultats indiquent que les effets des conditions aux limites sont absents pour un milieu stratifié, et négligeables pour un milieu à saturation partielle : cela résultant à des dimensions petites des VER. Au contraire, de forts effets des conditions aux limites apparaissent dans les milieux présentant une distribution périodique de fissures de taille finie : cela conduisant à de grandes dimensions des VER. Dans la troisième partie de cette thèse, nous proposons un nouveau modèle poro- élastique effectif, pour les milieux périodiques caractérisés par une stratification mésoscopique, qui prendra en compte les WIFF à la fois aux échelles mésoscopique et macroscopique, ainsi que l'anisotropie associée à ces strates. Ce modèle prédit alors avec exactitude l'existence des ondes P rapides et lentes ainsi que les quasis et pures ondes S, pour toutes les directions de propagation de l'onde, tant que la longueur d'onde correspondante est bien plus grande que l'épaisseur de la strate. L'intérêt principal de ce travail est que, pour les formations à perméabilité moyenne à élevée, comme, par exemple, les sédiments non- consolidés, les grès ou encore les roches fissurées, ces deux mécanismes d'WIFF peuvent avoir lieu à des fréquences similaires. Or, ce scénario, qui est assez commun, n'est pas décrit par les modèles existants pour les milieux poreux stratifiés. Les comparaisons des solutions analytiques des vitesses des ondes P et S et de l'atténuation de la propagation des ondes perpendiculaires à la stratification, avec les solutions obtenues à partir de simulations numériques en éléments finis, fondées sur une solution obtenue en 1D des équations poro- élastiques, montrent un très bon accord, tant que l'hypothèse des grandes longueurs d'onde reste valable. Il y a cependant une limitation de ce modèle qui est liée à son incapacité à prendre en compte les effets inertiels dans les WIFF mésoscopiques quand les deux mécanismes d'WIFF prédominent à des fréquences similaires. Néanmoins, nos résultats montrent aussi que l'erreur associée est relativement faible, même à des fréquences à laquelle sont attendus les deux effets d'inertie et de diffusion, indiquant que le modèle proposé fournit une solution qui est remarquablement proche de sa référence numérique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Wastewater-based epidemiology consists in acquiring relevant information about the lifestyle and health status of the population through the analysis of wastewater samples collected at the influent of a wastewater treatment plant. Whilst being a very young discipline, it has experienced an astonishing development since its firs application in 2005. The possibility to gather community-wide information about drug use has been among the major field of application. The wide resonance of the first results sparked the interest of scientists from various disciplines. Since then, research has broadened in innumerable directions. Although being praised as a revolutionary approach, there was a need to critically assess its added value, with regard to the existing indicators used to monitor illicit drug use. The main, and explicit, objective of this research was to evaluate the added value of wastewater-based epidemiology with regards to two particular, although interconnected, dimensions of illicit drug use. The first is related to trying to understand the added value of the discipline from an epidemiological, or societal, perspective. In other terms, to evaluate if and how it completes our current vision about the extent of illicit drug use at the population level, and if it can guide the planning of future prevention measures and drug policies. The second dimension is the criminal one, with a particular focus on the networks which develop around the large demand in illicit drugs. The goal here was to assess if wastewater-based epidemiology, combined to indicators stemming from the epidemiological dimension, could provide additional clues about the structure of drug distribution networks and the size of their market. This research had also an implicit objective, which focused on initiating the path of wastewater- based epidemiology at the Ecole des Sciences Criminelles of the University of Lausanne. This consisted in gathering the necessary knowledge about the collection, preparation, and analysis of wastewater samples and, most importantly, to understand how to interpret the acquired data and produce useful information. In the first phase of this research, it was possible to determine that ammonium loads, measured directly in the wastewater stream, could be used to monitor the dynamics of the population served by the wastewater treatment plant. Furthermore, it was shown that on the long term, the population did not have a substantial impact on consumption patterns measured through wastewater analysis. Focussing on methadone, for which precise prescription data was available, it was possible to show that reliable consumption estimates could be obtained via wastewater analysis. This allowed to validate the selected sampling strategy, which was then used to monitor the consumption of heroin, through the measurement of morphine. The latter, in combination to prescription and sales data, provided estimates of heroin consumption in line with other indicators. These results, combined to epidemiological data, highlighted the good correspondence between measurements and expectations and, furthermore, suggested that the dark figure of heroin users evading harm-reduction programs, which would thus not be measured by conventional indicators, is likely limited. In the third part, which consisted in a collaborative study aiming at extensively investigating geographical differences in drug use, wastewater analysis was shown to be a useful complement to existing indicators. In particular for stigmatised drugs, such as cocaine and heroin, it allowed to decipher the complex picture derived from surveys and crime statistics. Globally, it provided relevant information to better understand the drug market, both from an epidemiological and repressive perspective. The fourth part focused on cannabis and on the potential of combining wastewater and survey data to overcome some of their respective limitations. Using a hierarchical inference model, it was possible to refine current estimates of cannabis prevalence in the metropolitan area of Lausanne. Wastewater results suggested that the actual prevalence is substantially higher compared to existing figures, thus supporting the common belief that surveys tend to underestimate cannabis use. Whilst being affected by several biases, the information collected through surveys allowed to overcome some of the limitations linked to the analysis of cannabis markers in wastewater (i.e., stability and limited excretion data). These findings highlighted the importance and utility of combining wastewater-based epidemiology to existing indicators about drug use. Similarly, the fifth part of the research was centred on assessing the potential uses of wastewater-based epidemiology from a law enforcement perspective. Through three concrete examples, it was shown that results from wastewater analysis can be used to produce highly relevant intelligence, allowing drug enforcement to assess the structure and operations of drug distribution networks and, ultimately, guide their decisions at the tactical and/or operational level. Finally, the potential to implement wastewater-based epidemiology to monitor the use of harmful, prohibited and counterfeit pharmaceuticals was illustrated through the analysis of sibutramine, and its urinary metabolite, in wastewater samples. The results of this research have highlighted that wastewater-based epidemiology is a useful and powerful approach with numerous scopes. Faced with the complexity of measuring a hidden phenomenon like illicit drug use, it is a major addition to the panoply of existing indicators. -- L'épidémiologie basée sur l'analyse des eaux usées (ou, selon sa définition anglaise, « wastewater-based epidemiology ») consiste en l'acquisition d'informations portant sur le mode de vie et l'état de santé d'une population via l'analyse d'échantillons d'eaux usées récoltés à l'entrée des stations d'épuration. Bien qu'il s'agisse d'une discipline récente, elle a vécu des développements importants depuis sa première mise en oeuvre en 2005, notamment dans le domaine de l'analyse des résidus de stupéfiants. Suite aux retombées médiatiques des premiers résultats de ces analyses de métabolites dans les eaux usées, de nombreux scientifiques provenant de différentes disciplines ont rejoint les rangs de cette nouvelle discipline en développant plusieurs axes de recherche distincts. Bien que reconnu pour son coté objectif et révolutionnaire, il était nécessaire d'évaluer sa valeur ajoutée en regard des indicateurs couramment utilisés pour mesurer la consommation de stupéfiants. En se focalisant sur deux dimensions spécifiques de la consommation de stupéfiants, l'objectif principal de cette recherche était focalisé sur l'évaluation de la valeur ajoutée de l'épidémiologie basée sur l'analyse des eaux usées. La première dimension abordée était celle épidémiologique ou sociétale. En d'autres termes, il s'agissait de comprendre si et comment l'analyse des eaux usées permettait de compléter la vision actuelle sur la problématique, ainsi que déterminer son utilité dans la planification des mesures préventives et des politiques en matière de stupéfiants actuelles et futures. La seconde dimension abordée était celle criminelle, en particulier, l'étude des réseaux qui se développent autour du trafic de produits stupéfiants. L'objectif était de déterminer si cette nouvelle approche combinée aux indicateurs conventionnels, fournissait de nouveaux indices quant à la structure et l'organisation des réseaux de distribution ainsi que sur les dimensions du marché. Cette recherche avait aussi un objectif implicite, développer et d'évaluer la mise en place de l'épidémiologie basée sur l'analyse des eaux usées. En particulier, il s'agissait d'acquérir les connaissances nécessaires quant à la manière de collecter, traiter et analyser des échantillons d'eaux usées, mais surtout, de comprendre comment interpréter les données afin d'en extraire les informations les plus pertinentes. Dans la première phase de cette recherche, il y pu être mis en évidence que les charges en ammonium, mesurées directement dans les eaux usées permettait de suivre la dynamique des mouvements de la population contributrice aux eaux usées de la station d'épuration de la zone étudiée. De plus, il a pu être démontré que, sur le long terme, les mouvements de la population n'avaient pas d'influence substantielle sur le pattern de consommation mesuré dans les eaux usées. En se focalisant sur la méthadone, une substance pour laquelle des données précises sur le nombre de prescriptions étaient disponibles, il a pu être démontré que des estimations exactes sur la consommation pouvaient être tirées de l'analyse des eaux usées. Ceci a permis de valider la stratégie d'échantillonnage adoptée, qui, par le bais de la morphine, a ensuite été utilisée pour suivre la consommation d'héroïne. Combinée aux données de vente et de prescription, l'analyse de la morphine a permis d'obtenir des estimations sur la consommation d'héroïne en accord avec des indicateurs conventionnels. Ces résultats, combinés aux données épidémiologiques ont permis de montrer une bonne adéquation entre les projections des deux approches et ainsi démontrer que le chiffre noir des consommateurs qui échappent aux mesures de réduction de risque, et qui ne seraient donc pas mesurés par ces indicateurs, est vraisemblablement limité. La troisième partie du travail a été réalisée dans le cadre d'une étude collaborative qui avait pour but d'investiguer la valeur ajoutée de l'analyse des eaux usées à mettre en évidence des différences géographiques dans la consommation de stupéfiants. En particulier pour des substances stigmatisées, telles la cocaïne et l'héroïne, l'approche a permis d'objectiver et de préciser la vision obtenue avec les indicateurs traditionnels du type sondages ou les statistiques policières. Globalement, l'analyse des eaux usées s'est montrée être un outil très utile pour mieux comprendre le marché des stupéfiants, à la fois sous l'angle épidémiologique et répressif. La quatrième partie du travail était focalisée sur la problématique du cannabis ainsi que sur le potentiel de combiner l'analyse des eaux usées aux données de sondage afin de surmonter, en partie, leurs limitations. En utilisant un modèle d'inférence hiérarchique, il a été possible d'affiner les actuelles estimations sur la prévalence de l'utilisation de cannabis dans la zone métropolitaine de la ville de Lausanne. Les résultats ont démontré que celle-ci est plus haute que ce que l'on s'attendait, confirmant ainsi l'hypothèse que les sondages ont tendance à sous-estimer la consommation de cannabis. Bien que biaisés, les données récoltées par les sondages ont permis de surmonter certaines des limitations liées à l'analyse des marqueurs du cannabis dans les eaux usées (i.e., stabilité et manque de données sur l'excrétion). Ces résultats mettent en évidence l'importance et l'utilité de combiner les résultats de l'analyse des eaux usées aux indicateurs existants. De la même façon, la cinquième partie du travail était centrée sur l'apport de l'analyse des eaux usées du point de vue de la police. Au travers de trois exemples, l'utilisation de l'indicateur pour produire du renseignement concernant la structure et les activités des réseaux de distribution de stupéfiants, ainsi que pour guider les choix stratégiques et opérationnels de la police, a été mise en évidence. Dans la dernière partie, la possibilité d'utiliser cette approche pour suivre la consommation de produits pharmaceutiques dangereux, interdits ou contrefaits, a été démontrée par l'analyse dans les eaux usées de la sibutramine et ses métabolites. Les résultats de cette recherche ont mis en évidence que l'épidémiologie par l'analyse des eaux usées est une approche pertinente et puissante, ayant de nombreux domaines d'application. Face à la complexité de mesurer un phénomène caché comme la consommation de stupéfiants, la valeur ajoutée de cette approche a ainsi pu être démontrée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction : Le bloc transverse de l'abdomen (bloc TAP, Transversus Abdominis Plane) échoguidé consiste en l'injection d'anesthésique local dans la paroi abdominale entre les muscles oblique interne et transverse de l'abdomen sous contrôle échographique. Ceci permet de bloquer l'innervation sensitive de la paroi antérolatérale de l'abdomen afin de soulager la douleur après des interventions chirurgicales. Auparavant, cette procédure reposait sur une technique dite « à l'aveugle » qui utilisait des repères anatomiques de surface. Depuis quelques années, cette technique est effectuée sous guidage échographique ; ainsi, il est possible de visualiser les structures anatomiques, l'aiguille et l'anesthésique local permettant ainsi une injection précise de l'anesthésique local à l'endroit désiré. Les précédentes méta- analyses sur le bloc TAP n'ont inclus qu'un nombre limité d'articles et n'ont pas examiné l'effet analgésique spécifique de la technique échoguidée. L'objectif de cette méta-analyse est donc de définir l'efficacité analgésique propre du bloc TAP échoguidé après des interventions abdominales chez une population adulte. Méthode : Cette méta-analyse a été effectuée selon les recommandations PRISMA. Une recherche a été effectuée dans les bases de donnée MEDLINE, Cochrane Central Register of Controlled Clinical Trials, Excerpta Medica database (EMBASE) et Cumulative Index to Nursing and Allied Health Literature (CINAHL). Le critère de jugement principal est la consommation intraveineuse de morphine cumulée à 6 h postopératoires, analysée selon le type de chirurgie (laparotomie, laparoscopie, césarienne), la technique anesthésique (anesthésie générale, anesthésie spinale avec/ou sans morphine intrathécale), le moment de l'injection (début ou fin de l'intervention), et la présence ou non d'une analgésie multimodale. Les critères de jugement secondaires sont, entre autres, les scores de douleur au repos et à l'effort à 6 h postopératoires (échelle analogique de 0 à 100), la présence ou non de nausées et vomissements postopératoires, la présence ou non de prurit, et le taux de complications de la technique. Résultats : Trente et une études randomisées contrôlées, incluant un total de 1611 adultes ont été incluses. Indépendamment du type de chirurgie, le bloc TAP échoguidé réduit la consommation de morphine à 6 h postopératoires (différence moyenne : 6 mg ; 95%IC : -7, -4 mg ; I =94% ; p<0.00001), sauf si les patients sont au bénéfice d'une anesthésie spinale avec morphine intrathécale. Le degré de réduction de consommation de morphine n'est pas influencé par le moment de l'injection (I2=0% ; p=0.72) ou la présence d'une analgésie multimodale (I2=73% ; p=0.05). Les scores de douleurs au repos et à l'effort à 6h postopératoire sont également réduits (différence moyenne au repos : -10 ; 95%IC : -15, -5 ; I =92% ; p=0.0002; différence moyenne en mouvement : -9 ; 95%IC : -14, -5 ; I2=58% ; p<0. 00001). Aucune différence n'a été retrouvée au niveau des nausées et vomissements postopératoires et du prurit. Deux complications mineures ont été identifiées (1 hématome, 1 réaction anaphylactoïde sur 1028 patients). Conclusions : Le bloc TAP échoguidé procure une analgésie postopératoire mineure et ne présente aucun bénéfice chez les patients ayant reçu de la morphine intrathécale. L'effet analgésique mineure est indépendant du moment de l'injection ou de la présence ou non d'une analgésie multimodale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper proposes finite-sample procedures for testing the SURE specification in multi-equation regression models, i.e. whether the disturbances in different equations are contemporaneously uncorrelated or not. We apply the technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] to obtain exact tests based on standard LR and LM zero correlation tests. We also suggest a MC quasi-LR (QLR) test based on feasible generalized least squares (FGLS). We show that the latter statistics are pivotal under the null, which provides the justification for applying MC tests. Furthermore, we extend the exact independence test proposed by Harvey and Phillips (1982) to the multi-equation framework. Specifically, we introduce several induced tests based on a set of simultaneous Harvey/Phillips-type tests and suggest a simulation-based solution to the associated combination problem. The properties of the proposed tests are studied in a Monte Carlo experiment which shows that standard asymptotic tests exhibit important size distortions, while MC tests achieve complete size control and display good power. Moreover, MC-QLR tests performed best in terms of power, a result of interest from the point of view of simulation-based tests. The power of the MC induced tests improves appreciably in comparison to standard Bonferroni tests and, in certain cases, outperforms the likelihood-based MC tests. The tests are applied to data used by Fischer (1993) to analyze the macroeconomic determinants of growth.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper proposes an explanation for why efficient reforms are not carried out when losers have the power to block their implementation, even though compensating them is feasible. We construct a signaling model with two-sided incomplete information in which a government faces the task of sequentially implementing two reforms by bargaining with interest groups. The organization of interest groups is endogenous. Compensations are distortionary and government types differ in the concern about distortions. We show that, when compensations are allowed to be informative about the government’s type, there is a bias against the payment of compensations and the implementation of reforms. This is because paying high compensations today provides incentives for some interest groups to organize and oppose subsequent reforms with the only purpose of receiving a transfer. By paying lower compensations, governments attempt to prevent such interest groups from organizing. However, this comes at the cost of reforms being blocked by interest groups with relatively high losses.