1000 resultados para quatrième génération


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Engineered nanomaterials (ENMs) exhibit special physicochemical properties and thus are finding their way into an increasing number of industries, enabling products with improved properties. Their increased use brings a greater likelihood of exposure to the nanoparticles (NPs) that could be released during the life cycle of nano-abled products. The field of nanotoxicology has emerged as a consequence of the development of these novel materials, and it has gained ever more attention due to the urgent need to gather information on exposure to them and to understand the potential hazards they engender. However, current studies on nanotoxicity tend to focus on pristine ENMs, and they use these toxicity results to generalize risk assessments on human exposure to NPs. ENMs released into the environment can interact with their surroundings, change characteristics and exhibit toxicity effects distinct from those of pristine ENMs. Furthermore, NPs' large surface areas provide extra-large potential interfaces, thus promoting more significant interactions between NPs and other co-existing species. In such processes, other species can attach to a NP's surface and modify its surface functionality, in addition to the toxicity in normally exhibits. One particular occupational health scenario involves NPs and low-volatile organic compounds (LVOC), a common type of pollutant existing around many potential sources of NPs. LVOC can coat a NP's surface and then dominate its toxicity. One important mechanism in nanotoxicology is the creation of reactive oxygen species (ROS) on a NP's surface; LVOC can modify the production of these ROS. In summary, nanotoxicity research should not be limited to the toxicity of pristine NPs, nor use their toxicity to evaluate the health effects of exposure to environmental NPs. Instead, the interactions which NPs have with other environmental species should also be considered and researched. The potential health effects of exposure to NPs should be derived from these real world NPs with characteristics modified by the environment and their distinct toxicity. Failure to suitably address toxicity results could lead to an inappropriate treatment of nano- release, affect the environment and public health and put a blemish on the development of sustainable nanotechnologies as a whole. The main objective of this thesis is to demonstrate a process for coating NP surfaces with LVOC using a well-controlled laboratory design and, with regard to these NPs' capacity to generate ROS, explore the consequences of changing particle toxicity. The dynamic coating system developed yielded stable and replicable coating performance, simulating an important realistic scenario. Clear changes in the size distribution of airborne NPs were observed using a scanning mobility particle sizer, were confirmed using both liquid nanotracking analyses and transmission electron microscopy (TEM) imaging, and were verified thanks to the LVOC coating. Coating thicknesses corresponded to the amount of coating material used and were controlled using the parameters of the LVOC generator. The capacity of pristine silver NPs (Ag NPs) to generate ROS was reduced when they were given a passive coating of inert paraffin: this coating blocked the reactive zones on the particle surfaces. In contrast, a coating of active reduced-anthraquinone contributed to redox reactions and generated ROS itself, despite the fact that ROS generation due to oxidation by Ag NPs themselves was quenched. Further objectives of this thesis included development of ROS methodology and the analysis of ROS case studies. Since the capacity of NPs to create ROS is an important effect in nanotoxicity, we attempted to refine and standardize the use of 2'7-dichlorodihydrofluorescin (DCFH) as a chemical tailored for the characterization of NPs' capacity for ROS generation. Previous studies had reported a wide variety of results, which were due to a number of insufficiently well controlled factors. We therefore cross-compared chemicals and concentrations, explored ways of dispersing NP samples in liquid solutions, identified sources of contradictions in the literature and investigated ways of reducing artificial results. The most robust results were obtained by sonicating an optimal sample of NPs in a DCFH-HRP solution made of 5,M DCFH and 0.5 unit/ml horseradish peroxidase (HRP). Our findings explained how the major reasons for previously conflicting results were the different experimental approaches used and the potential artifacts appearing when using high sample concentrations. Applying our advanced DCFH protocol with other physicochemical characterizations and biological analyses, we conducted several case studies, characterizing aerosols and NP samples. Exposure to aged brake wear dust engenders a risk of potential deleterious health effects in occupational scenarios. We performed microscopy and elemental analyses, as well as ROS measurements, with acellular and cellular DCFH assays. TEM images revealed samples to be heterogeneous mixtures with few particles in the nano-scale. Metallic and non-metallic elements were identified, primarily iron, carbon and oxygen. Moderate amounts of ROS were detected in the cell-free fluorescent tests; however, exposed cells were not dramatically activated. In addition to their highly aged state due to oxidation, the reason aged brake wear samples caused less oxidative stress than fresh brake wear samples may be because of their larger size and thus smaller relative reactive surface area. Other case studies involving welding fumes and differently charged NPs confirmed the performance of our DCFH assay and found ROS generation linked to varying characteristics, especially the surface functionality of the samples. Les nanomatériaux manufacturés (ENM) présentent des propriétés physico-chimiques particulières et ont donc trouvés des applications dans un nombre croissant de secteurs, permettant de réaliser des produits ayant des propriétés améliorées. Leur utilisation accrue engendre un plus grand risque pour les êtres humains d'être exposés à des nanoparticules (NP) qui sont libérées au long de leur cycle de vie. En conséquence, la nanotoxicologie a émergé et gagné de plus en plus d'attention dû à la nécessité de recueillir les renseignements nécessaires sur l'exposition et les risques associés à ces nouveaux matériaux. Cependant, les études actuelles sur la nanotoxicité ont tendance à se concentrer sur les ENM et utiliser ces résultats toxicologiques pour généraliser l'évaluation des risques sur l'exposition humaine aux NP. Les ENM libérés dans l'environnement peuvent interagir avec l'environnement, changeant leurs caractéristiques, et montrer des effets de toxicité distincts par rapport aux ENM originaux. Par ailleurs, la grande surface des NP fournit une grande interface avec l'extérieur, favorisant les interactions entre les NP et les autres espèces présentes. Dans ce processus, d'autres espèces peuvent s'attacher à la surface des NP et modifier leur fonctionnalité de surface ainsi que leur toxicité. Un scénario d'exposition professionnel particulier implique à la fois des NP et des composés organiques peu volatils (LVOC), un type commun de polluant associé à de nombreuses sources de NP. Les LVOC peuvent se déposer sur la surface des NP et donc dominer la toxicité globale de la particule. Un mécanisme important en nanotoxicologie est la création d'espèces réactives d'oxygène (ROS) sur la surface des particules, et les LVOC peuvent modifier cette production de ROS. En résumé, la recherche en nanotoxicité ne devrait pas être limitée à la toxicité des ENM originaux, ni utiliser leur toxicité pour évaluer les effets sur la santé de l'exposition aux NP de l'environnement; mais les interactions que les NP ont avec d'autres espèces environnementales doivent être envisagées et étudiées. Les effets possibles sur la santé de l'exposition aux NP devraient être dérivés de ces NP aux caractéristiques modifiées et à la toxicité distincte. L'utilisation de résultats de toxicité inappropriés peut conduire à une mauvaise prise en charge de l'exposition aux NP, de détériorer l'environnement et la santé publique et d'entraver le développement durable des industries de la nanotechnologie dans leur ensemble. L'objectif principal de cette thèse est de démontrer le processus de déposition des LVOC sur la surface des NP en utilisant un environnement de laboratoire bien contrôlé et d'explorer les conséquences du changement de toxicité des particules sur leur capacité à générer des ROS. Le système de déposition dynamique développé a abouti à des performances de revêtement stables et reproductibles, en simulant des scénarios réalistes importants. Des changements clairs dans la distribution de taille des NP en suspension ont été observés par spectrométrie de mobilité électrique des particules, confirmé à la fois par la méthode dite liquid nanotracking analysis et par microscopie électronique à transmission (MET), et a été vérifié comme provenant du revêtement par LVOC. La correspondance entre l'épaisseur de revêtement et la quantité de matériau de revêtement disponible a été démontré et a pu être contrôlé par les paramètres du générateur de LVOC. La génération de ROS dû aux NP d'argent (Ag NP) a été diminuée par un revêtement passif de paraffine inerte bloquant les zones réactives à la surface des particules. Au contraire, le revêtement actif d'anthraquinone réduit a contribué aux réactions redox et a généré des ROS, même lorsque la production de ROS par oxydation des Ag NP avec l'oxygène a été désactivé. Les objectifs associés comprennent le développement de la méthodologie et des études de cas spécifique aux ROS. Etant donné que la capacité des NP à générer des ROS contribue grandement à la nanotoxicité, nous avons tenté de définir un standard pour l'utilisation de 27- dichlorodihydrofluorescine (DCFH) adapté pour caractériser la génération de ROS par les NP. Des etudes antérieures ont rapporté une grande variété de résultats différents, ce qui était dû à un contrôle insuffisant des plusieurs facteurs. Nous avons donc comparé les produits chimiques et les concentrations utilisés, exploré les moyens de dispersion des échantillons HP en solution liquide, investigué les sources de conflits identifiées dans les littératures et étudié les moyens de réduire les résultats artificiels. De très bon résultats ont été obtenus par sonication d'une quantité optimale d'échantillons de NP en solution dans du DCFH-HRP, fait de 5 nM de DCFH et de 0,5 unité/ml de Peroxydase de raifort (HRP). Notre étude a démontré que les principales raisons causant les conflits entre les études précédemment conduites dans la littérature étaient dues aux différentes approches expérimentales et à des artefacts potentiels dus à des concentrations élevées de NP dans les échantillons. Utilisant notre protocole DCFH avancé avec d'autres caractérisations physico-chimiques et analyses biologiques, nous avons mené plusieurs études de cas, caractérisant les échantillons d'aérosols et les NP. La vielle poussière de frein en particulier présente un risque élevé d'exposition dans les scénarios professionnels, avec des effets potentiels néfastes sur la santé. Nous avons effectué des analyses d'éléments et de microscopie ainsi que la mesure de ROS avec DCFH cellulaire et acellulaire. Les résultats de MET ont révélé que les échantillons se présentent sous la forme de mélanges de particules hétérogènes, desquels une faible proportion se trouve dans l'échelle nano. Des éléments métalliques et non métalliques ont été identifiés, principalement du fer, du carbone et de l'oxygène. Une quantité modérée de ROS a été détectée dans le test fluorescent acellulaire; cependant les cellules exposées n'ont pas été très fortement activées. La raison pour laquelle les échantillons de vielle poussière de frein causent un stress oxydatif inférieur par rapport à la poussière de frein nouvelle peut-être à cause de leur plus grande taille engendrant une surface réactive proportionnellement plus petite, ainsi que leur état d'oxydation avancé diminuant la réactivité. D'autres études de cas sur les fumées de soudage et sur des NP différemment chargées ont confirmé la performance de notre test DCFH et ont trouvé que la génération de ROS est liée à certaines caractéristiques, notamment la fonctionnalité de surface des échantillons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plus de 300 millions de personnes dans le monde souffrent de l'asthme. L'asthme est une maladie inflammatoire chronique des voies respiratoires caractérisée par des symptômes variables et récurrents, une obstruction bronchique réversible et des bronchospasmes. Les symptômes communs incluent une respiration sifflante, de la toux, une oppression thoracique et de la dyspnée. Normalement, la maladie commence à se manifester pendant l'enfance. Pourtant, facteurs génétiques héréditaires et événements environnementaux survenant au cours de la petite enfance sont responsables de sa manifestation, indiquant que le développement de la maladie est lié à des événements qui se produisent bien avant son déclenchement. L'infection respiratoire virale aiguë constitue un de ces facteurs environnementaux jouant un rôle prépondérant. Un des virus les plus communs est le virus respiratoire syncytial (VRS), qui infecte presque tous les enfants avant l'âge de 2 ans. Ce virus, s'il infecte des tout-petits, peut en effet provoquer une bronchiolite aiguë, un phénomène qui a été épidémiologiquement lié à l'apparition d'asthme plus tard dans la vie. Dans le premier chapitre de cette thèse, nous avons étudié, chez la souris, comment une infection avec le VRS influe sur l'asthme allergique. Nous avons constaté que seule l'infection des souris à l'état de nouveau-né prédispose à un asthme allergique plus sévère chez l'adulte. En effet, si des souris adultes étaient infectées, elles étaient protégées contre l'apparition des symptômes asthmatiques. Cela nous a mené à investiguer les mécanismes immunitaires spécifiques durant cette courte période du début de la vie. Deux événements se produisent en parallèle au cours de la petite enfance: (1) Le système immunitaire, qui est encore immature immédiatement après la naissance, commence à se développer pour être en mesure de jouer son rôle protecteur contre les agents infectieux. (2) Le corps, y compris les poumons, est colonisé par des bactéries commensales, qui vivent en symbiose avec leur hôte humain. Chez l'adulte, ces bactéries sont connues pour influencer notre système immunitaire, l'éduquant à générer des réponses immunitaires adéquates et efficaces. Dans la deuxième partie de cette thèse, nous avons voulu déterminer si ces bactéries symbiotiques étaient impliquées dans l'éducation du système immunitaire du nouveau-né et quelles conséquences cela pourrait avoir sur les réponses immunitaires engendrées par ce dernier. Pour étudier l'effet de ces bactéries symbiotiques, nous avons utilisé des souris stériles, en d'autres termes des souris qui n'hébergent pas ces bactéries symbiotiques. En comparant ces souris stériles à des souris qui abritent une flore microbienne normale, nous avons constaté que les bactéries symbiotiques sont vitales pour la bonne éducation du système immunitaire du nouveau-né. Nous avons démontré que le contact direct des cellules immunitaires avec la flore microbienne dans les poumons modifie le phénotype de ces cellules immunitaires, ce qui change probablement leur réaction au cours de réponses immunitaires. Nous avons donc vérifié si l'éducation immunitaire induite par cette microflore est importante pour prévenir les maladies pulmonaires telles que l'asthme allergique, affections qui sont causées par une réaction excessive du système immunitaire envers des agents inoffensifs. En effet, nous avons observé que le processus de maturation du système immunitaire néonatal, lequel a été déclenché et façonné par la flore microbienne, est important pour éviter une réaction asthmatique exagérée chez la souris adulte. Ce phénomène est dû aux lymphocytes T régulateurs. Ces cellules, dont la présence est induite dans les poumons, ont des capacités immunosuppressives et atténuent donc les réponses immunitaires pour prévenir une inflammation excessive. En conclusion, nous avons montré dans cette thèse que la colonisation par des bactéries symbiotiques tôt dans la vie est un événement décisif pour la maturation du système immunitaire et pour prévenir le développement de l'asthme. Dans l'avenir, il serait intéressant de découvrir quelles bactéries sont présentes dans les poumons du nouveau-né et lesquelles sont directement impliquées dans ce processus de maturation immunitaire. Une prochaine étape serait alors de favoriser la présence de ces bactéries au début de la vie au moyen d'un traitement avec des agents pré- ou probiotiques, ce qui pourrait éventuellement contribuer à une prévention précoce du développement de l'asthme. -- L'asthme est une maladie chronique inflammatoire des voies respiratoires affectant près de 300 millions d'individus dans le monde. Bien que les traits caractéristiques du phénotype asthmatique s'établissent généralement pendant l'enfance, la prédisposition au développement de la maladie est intimement liée à des événements survenant durant la petite enfance, comme le sont par exemple les infections virales respiratoires aiguës. Les mécanismes par lesquels ces événements provoquent un dysfonctionnement immunitaire et, par conséquent, conduisent au développement de l'asthme n'ont pas encore été entièrement décelés. La dysbiose du microbiote des voies respiratoires a été récemment associes au phénotype asthmatique, touisTcis, la cuûoboiatioî! d un lien cause à effet entre la dysbiose microbienne et l'apparition des symptômes asthmatiques reste à être démontrée. Dans cette thèse, nous avons étudié le rôle que joue la colonisation microbienne des voies respiratoires au cours de la petite enfance dans la maturation du système immunitaire ainsi que dans la protection contre l'inflammation pulmonaire de type allergique. Nous avons de surcroît développé un modèle expérimental pour comprendre comment les infections virales respiratoires interfèrent avec ce processus. Dans la première partie de cette thèse, nous avons évalué l'effet d'infections causées par le virus respiratoire syncytial (VRS) sur le développement de l'asthme. En accord avec des études épidémiologiques, nous avons constaté qu'une infection au VRS lors de la période néonatale exacerbait les réponses pulmonaires allergiques ultérieures. Par contraste, une infection à l'âge adulte avait un effet protecteur. Nous avons ainsi démontré que l'influence d'une infection à VRS sur l'issue et la sévérité de l'asthme respiratoire était strictement dépendante de l'âge. Ces résultats nous ont conduit à émettre l'hypothèse que des différences dans le phénotype homéostatique des cellules immunitaires pourraient être responsables de ces disparités liées à l'âge. Par conséquent, dans la deuxième partie de cette thèse, nous avons suivi et caractérisé le processus de maturation des cellules immunitaires dans les poumons du nouveau-né en condition d'homéostasie. Nous avons découvert que leur phénotype change de façon dynamique pendant le développement néonatal et que la colonisation par des microbes était déterminante pour la maturation des cellules immunitaires dans les poumons. Dans la dernière partie de cette thèse, nous avons démontré comment le microbiote pulmonaire éduque le développement immunitaire durant la période néonatale l'orientant de manière à induire une tolérance face aux aéroallergènes. Nous avons découvert que la colonisation microbienne des voies respiratoires provoque une expression transitoire de PD-L1 sur les cellules dendritiques (CD) pulmonaires du type CD11b+ dans les deux premières semaines de la vie. Cet événement engendre par la suite la génération de lymphocytes T régulateurs (TREG) dans les poumons, lesquels sont responsables de la protection contre une réponse inflammatoire allergique exagérée chez la souris adulte. Par conséquent, nous proposons un rôle pivot de la maturation immunitaire induite par le microbiote pulmonaire dans l'établissement de la tolérance aux aéroallergènes. En conclusion, les résultats présentés dans cette thèse fournissent de nouveaux indices révélant comment des événements se produisant lors de la petite enfance peuvent façonner les réponses du système immunitaire dirigées contre les allergènes et soulignent le rôle central joué par le microbiote pulmonaire dans l'édification d'une réponse immunitaire équilibrée. En résumé, notre travail met en évidence le microbiote pulmonaire comme étant une cible potentielle pour la prévention de certaines maladies respiratoires. -- Asthma is a chronic inflammatory disorder of the respiratory tract and affects approximately 300 million individuals world-wide. Although the asthmatic phenotype commonly establishes during childhood, predisposition towards disease development has been linked to events in early infancy, such as severe respiratory viral infections. However, the mechanisms by which these events cause immune dysfunction and, therefore, lead to the development of asthma have yet to be fully deciphered. Dysbiosis of the airway microbiota has recently been associated with the asthmatic phenotype; however, conclusive evidence for a causal link between microbial dysbiosis in the ail ways and asthma development is still missing. In this thesis we investigated the role of early-life microbial airway colonization in immune maturation and the protection against allergic airway inflammation and established an experimental model to address how respiratory viral infections interfere in this process. In the first part of this thesis we evaluated the effect of Respiratory syncytial virus (RSV) infections on the development of asthma. In concurrence with epidemiological studies, we found that neonatal infection exacerbated subsequent allergic airway inflammation. In contrast, adult infection was protective in the same context. Thus, we could demonstrate that the influence of RSV infection on subsequent allergic airway responses was strictly age-dependent. These findings led us to the hypothesis that differences in the homeostatic phenotype of immune cells could be responsible for the age-related disparities seen within the context of RSV. Therefore, in a second part of this thesis, we followed the process of homeostatic immune cell maturation in the neonatal lung. Immune cell phenotypes changed dynamically during neonatal development. We discovered that the colonization with microbes was central to the maturation of immune cells in the lung. In the last part of this thesis, we demonstrated how microbiota-driven immune development during the neonatal period induces tolerance against aeroallergens. We discovered that microbial colonization led to a transient programmed death-ligand (PD-L) 1 expression on CD11b+ pulmonary dendritic cells (DCs) during the first two weeks of life. This in turn induced regulatory T (TREG) cells in the lung, which were responsible for the protection against exaggerated allergic airway inflammation in adult mice. Thus, we propose a key role for microbiota-driven immune maturation in the establishment of tolerance towards aeroallergens. In conclusion, the results presented in this thesis provide new insights into how early-life events shape pulmonary immune responses towards allergens and suggest the airway microbiota as a key player in establishing a balanced immune response. Overall, our work highlights the airway microbiota as potential target for disease prevention.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le sarcome d'Ewing (SE) est la 2ème tumeur des os la plus fréquente chez les enfants, et le pronostic est sombre au stade métastatique. La pathogenèse du SE repose sur une translocation, provocant la fusion du domaine activateur du facteur de transcription EWS, avec la partie liant l'ADN de la protéine FLI-1. Les cellules souches cancéreuses (CSC) sont supposées être les moteurs de la croissance tumorale, et représente de ce fait des cibles thérapeutiques préférentielles. Dans ce travail nous nous sommes efforcés de comprendre, ainsi que de cibler les mécanismes liés à l'émergence des CSC dans le sarcome d'Ewing. La formation des CSC du ES est liée à un défaut de maturation des miRNAs provoqué par une sous-expression d'un gène, TARBP2, dans les CSC. Ce défaut de maturation peut être corrigé par un traitement des cellules avec de l'enoxacine, une fluoroquinolone utilisée pour traiter les infections urinaires. L'enoxacine seule n'étant pas suffisante pour éradiquer les tumeurs in vivo, nous avons testé la combinaison d'une thérapie ciblée sur les CSC avec une chimiothérapie classique, la doxorubicine, ciblant les cellules différentiées. In vitro l'enoxacine induit l'apoptose dans les CCS sans affecter les cellules différentiées, alors que à l'inverse, la doxorubicine n'affecte que les cellules de la « masse » tumorale. In vivo la combinaison de ces deux drogues inhibe la croissance de tumeurs provenant de cellules primaires xenotranplantées et éradique les CSCs. Nos résultats mettent en lumière une nouvelle approche thérapeutique directement applicable pour le sarcome d'Ewing, et pourraient ainsi rapidement déboucher sur des essais cliniques. Dans la deuxième partie de ce travail nous avons essayé de comprendre comment EWS-FLI1, la protéine de fusion issue de la translocation chromosomique du sarcome d'Ewing conduit à la génération des CSC. Pour cela nous avons effectué des ChIPseq (immunoprecipitation de la chromatine suivi de séquençage) pour EWS-FLI1 ainsi que pour certaines modifications histoniques. -- Ewing sarcoma family tumors (ESFT) are the second most frequent bone tumors in children and have a high rate of recurrence when metastatic at presentation. The pathogenesis of Ewing sarcoma is underlayed by a translocation, leading to the fusion of the trans-activating domain of EWS with the FLU DNA binding domain. Cancer stem cells (CSCs) are thought to be the driving force of tumor growth. In this work we focused on understanding the mechanisms underlying ESFT CSC emergence as well as defining targeted therapeutic strategies. Emergence of CSCs in ESFT has been shown to arise from a defect in TARBP2-dependent microRNA maturation, which can be corrected by exposure to the fluoroquinolone enoxacin. As enoxacin alone is not sufficient to reverse tumor growth in vivo, we assessed the effect of combining a drug that abrogates CSC properties with doxorubicin, a standard-of-care therapy in ESFT. Primary ESFT CSCs and bulk tumor cells were treated with different concentration of drugs and displayed divergent responses to doxorubicin and enoxacin. Doxorubicin, which targets the tumor bulk, displayed toxicity toward primary adherent ESFT cells in culture but not to CSC-enriched ESFT spheres. Conversely, enoxacin induced apoptosis but only in ESFT spheres and specifically on the CD133+ population. In combination, the two drugs markedly depleted CSC and strongly reduced primary growth in xenograft assays of two primary ESFT. Our results identify a potentially attractive therapeutic strategy for ESFT that combines mechanism-based targeting of CSC using a low toxicity antibiotic with a standard-of-care cytotoxic drug, offering immediate applications for clinical evaluation. In the second part of this work we performed chromatin immunopercipitation on CSCs and bulk cells for EWS-FLI1 binding as well as some chromatin modifications, and concluded that EWS-FLI1 shows cell context dependent binding.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur la contribution des caractéristiques individuelles et des situations professionnelles au bien-être. En combinant différentes perspectives théoriques, notamment la théorie de la construction de la carrière, la théorie de la justice organisationnelle, les modèles du bien-être au travail, et les conceptualisations de l'incivilité au travail, un certain nombre d'hypothèses sont proposées concernant le lien entre certaines caractéristiques individuelles et situationnelles et le bien-être général et professionnel. Les deux premières études se focalisent sur la validation d'une échelle d'adaptabilités de carrière et sur le rôle médiateur de cette adaptabilité dans la relation entre des dispositions et le bien-être. La troisième étude évolue l'hypothèse d'un possible effet de médiation de l'adaptabilité mais cette fois de la relation entre insécurité professionnelle et charge de travail d'une part et le bien-être d'autre part. La quatrième étude adopte une perspective longitudinale et analyse les associations entre les dimensions de la personnalité, l'adaptabilité de carrière et le bien-être dans quatre parcours professionnels différents. La cinquième étude porte sur une autre caractéristique individuelle, à savoir la croyance en un monde juste. Cette étude illustre comment la croyance en un monde juste influence les perceptions de justice organisationnelle une année après, qui ont une incidence importante sur le bien-être. Enfin, la dernière étude se concentre sur une population spécifique, les immigrants en Suisse, et souligne qu'être la cible d'incivilité sur le lieu de travail est généralement liée au pays d'origine. Globalement, cette thèse met en évidence que les caractéristiques individuelles ont des effets tant directs qu'indirects sur le bien-être et que ces mêmes caractéristiques explique en partie, les relations entre la situation professionnelle et le bien-être. Plus spécifiquement, des situations professionnelles peuvent influencer l'expression de certaines caractéristiques individuelles, soit en contribuant à leurs activations ou à leurs inhibitions. De plus, l'impact des caractéristiques individuelles sur le bien-être semble dépendre de la situation professionnelle. Il est donc important de considérer les influences simultanées et réciproques des caractéristiques individuelles et de la situation contextuelle et professionnelle pour rendre compte du bien-être général et professionnel. -- This thesis explores how individual characteristics and professional situations correspond to well-being. Drawing from various theoretical backgrounds, such as career construction theory, justice theory, models of job strain, and theories on subtle discrimination, a number of specific hypotheses are put forward pertaining to a selection of individual and professional aspects as well as general and work-related well-being. The six studies presented in this thesis focus on specific aspects and adopt different methodological and theoretical approaches. The first two studies concern the validation of the career adapt-abilities scale and test the potential of career adapt-abilities to mediate the relationship between dispositions and outcomes. The third study extends the hypothesis of career adapt-abilities as a mediator and finds that it mediates the effects of job insecurity and job strain on general and professional well-being. The fourth study adopts a longitudinal approach and tests the associations between personality traits and career adaptability and well-being in four different professional situations. Study five concerns another individual characteristic, belief in a just world, and illustrates how justice beliefs drive perceptions of organizational justice, which in turn impact, on well-being outcomes one year later. The final study focuses on the professional experiences of a specific population, immigrants in Switzerland, and confirms that being a target of incivilities is related to national origin. Globally, this thesis finds that individual characteristics have direct and indirect influences on well-being and that these characteristics may also mediate the associations between professional situations and outcomes. In particular, the professional situation may alter the display of individual characteristics, either by contributing to their activation or their depletion, and the ways in which individual factors influence well-being does seem to depend on the professional situation. It is thus necessary to adopt a "both...and" perspective when studying the impact of individual and professional characteristics as these factors mutually influence each other.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atherosclerosis is a chronic cardiovascular disease that involves the thicken¬ing of the artery walls as well as the formation of plaques (lesions) causing the narrowing of the lumens, in vessels such as the aorta, the coronary and the carotid arteries. Magnetic resonance imaging (MRI) is a promising modality for the assessment of atherosclerosis, as it is a non-invasive and patient-friendly procedure that does not use ionizing radiation. MRI offers high soft tissue con¬trast already without the need of intravenous contrast media; while modifica¬tion of the MR pulse sequences allows for further adjustment of the contrast for specific diagnostic needs. As such, MRI can create angiographic images of the vessel lumens to assess stenoses at the late stage of the disease, as well as blood flow-suppressed images for the early investigation of the vessel wall and the characterization of the atherosclerotic plaques. However, despite the great technical progress that occurred over the past two decades, MRI is intrinsically a low sensitive technique and some limitations still exist in terms of accuracy and performance. A major challenge for coronary artery imaging is respiratory motion. State- of-the-art diaphragmatic navigators rely on an indirect measure of motion, per¬form a ID correction, and have long and unpredictable scan time. In response, self-navigation (SM) strategies have recently been introduced that offer 100% scan efficiency and increased ease of use. SN detects respiratory motion di¬rectly from the image data obtained at the level of the heart, and retrospectively corrects the same data before final image reconstruction. Thus, SN holds po-tential for multi-dimensional motion compensation. To this regard, this thesis presents novel SN methods that estimate 2D and 3D motion parameters from aliased sub-images that are obtained from the same raw data composing the final image. Combination of all corrected sub-images produces a final image with reduced motion artifacts for the visualization of the coronaries. The first study (section 2.2, 2D Self-Navigation with Compressed Sensing) consists of a method for 2D translational motion compensation. Here, the use of com- pressed sensing (CS) reconstruction is proposed and investigated to support motion detection by reducing aliasing artifacts. In healthy human subjects, CS demonstrated an improvement in motion detection accuracy with simula¬tions on in vivo data, while improved coronary artery visualization was demon¬strated on in vivo free-breathing acquisitions. However, the motion of the heart induced by respiration has been shown to occur in three dimensions and to be more complex than a simple translation. Therefore, the second study (section 2.3,3D Self-Navigation) consists of a method for 3D affine motion correction rather than 2D only. Here, different techniques were adopted to reduce background signal contribution in respiratory motion tracking, as this can be adversely affected by the static tissue that surrounds the heart. The proposed method demonstrated to improve conspicuity and vi¬sualization of coronary arteries in healthy and cardiovascular disease patient cohorts in comparison to a conventional ID SN method. In the third study (section 2.4, 3D Self-Navigation with Compressed Sensing), the same tracking methods were used to obtain sub-images sorted according to the respiratory position. Then, instead of motion correction, a compressed sensing reconstruction was performed on all sorted sub-image data. This process ex¬ploits the consistency of the sorted data to reduce aliasing artifacts such that the sub-image corresponding to the end-expiratory phase can directly be used to visualize the coronaries. In a healthy volunteer cohort, this strategy improved conspicuity and visualization of the coronary arteries when compared to a con¬ventional ID SN method. For the visualization of the vessel wall and atherosclerotic plaques, the state- of-the-art dual inversion recovery (DIR) technique is able to suppress the signal coming from flowing blood and provide positive wall-lumen contrast. How¬ever, optimal contrast may be difficult to obtain and is subject to RR variability. Furthermore, DIR imaging is time-inefficient and multislice acquisitions may lead to prolonged scanning times. In response and as a fourth study of this thesis (chapter 3, Vessel Wall MRI of the Carotid Arteries), a phase-sensitive DIR method has been implemented and tested in the carotid arteries of a healthy volunteer cohort. By exploiting the phase information of images acquired after DIR, the proposed phase-sensitive method enhances wall-lumen contrast while widens the window of opportunity for image acquisition. As a result, a 3-fold increase in volumetric coverage is obtained at no extra cost in scanning time, while image quality is improved. In conclusion, this thesis presented novel methods to address some of the main challenges for MRI of atherosclerosis: the suppression of motion and flow artifacts for improved visualization of vessel lumens, walls and plaques. Such methods showed to significantly improve image quality in human healthy sub¬jects, as well as scan efficiency and ease-of-use of MRI. Extensive validation is now warranted in patient populations to ascertain their diagnostic perfor¬mance. Eventually, these methods may bring the use of atherosclerosis MRI closer to the clinical practice. Résumé L'athérosclérose est une maladie cardiovasculaire chronique qui implique le épaississement de la paroi des artères, ainsi que la formation de plaques (lé¬sions) provoquant le rétrécissement des lumières, dans des vaisseaux tels que l'aorte, les coronaires et les artères carotides. L'imagerie par résonance magné¬tique (IRM) est une modalité prometteuse pour l'évaluation de l'athérosclérose, car il s'agit d'une procédure non-invasive et conviviale pour les patients, qui n'utilise pas des rayonnements ionisants. L'IRM offre un contraste des tissus mous très élevé sans avoir besoin de médias de contraste intraveineux, tan¬dis que la modification des séquences d'impulsions de RM permet en outre le réglage du contraste pour des besoins diagnostiques spécifiques. À ce titre, l'IRM peut créer des images angiographiques des lumières des vaisseaux pour évaluer les sténoses à la fin du stade de la maladie, ainsi que des images avec suppression du flux sanguin pour une première enquête des parois des vais¬seaux et une caractérisation des plaques d'athérosclérose. Cependant, malgré les grands progrès techniques qui ont eu lieu au cours des deux dernières dé¬cennies, l'IRM est une technique peu sensible et certaines limitations existent encore en termes de précision et de performance. Un des principaux défis pour l'imagerie de l'artère coronaire est le mou¬vement respiratoire. Les navigateurs diaphragmatiques de pointe comptent sur une mesure indirecte de mouvement, effectuent une correction 1D, et ont un temps d'acquisition long et imprévisible. En réponse, les stratégies d'auto- navigation (self-navigation: SN) ont été introduites récemment et offrent 100% d'efficacité d'acquisition et une meilleure facilité d'utilisation. Les SN détectent le mouvement respiratoire directement à partir des données brutes de l'image obtenue au niveau du coeur, et rétrospectivement corrigent ces mêmes données avant la reconstruction finale de l'image. Ainsi, les SN détiennent un poten¬tiel pour une compensation multidimensionnelle du mouvement. A cet égard, cette thèse présente de nouvelles méthodes SN qui estiment les paramètres de mouvement 2D et 3D à partir de sous-images qui sont obtenues à partir des mêmes données brutes qui composent l'image finale. La combinaison de toutes les sous-images corrigées produit une image finale pour la visualisation des coronaires ou les artefacts du mouvement sont réduits. La première étude (section 2.2,2D Self-Navigation with Compressed Sensing) traite d'une méthode pour une compensation 2D de mouvement de translation. Ici, on étudie l'utilisation de la reconstruction d'acquisition comprimée (compressed sensing: CS) pour soutenir la détection de mouvement en réduisant les artefacts de sous-échantillonnage. Chez des sujets humains sains, CS a démontré une amélioration de la précision de la détection de mouvement avec des simula¬tions sur des données in vivo, tandis que la visualisation de l'artère coronaire sur des acquisitions de respiration libre in vivo a aussi été améliorée. Pourtant, le mouvement du coeur induite par la respiration se produit en trois dimensions et il est plus complexe qu'un simple déplacement. Par conséquent, la deuxième étude (section 2.3, 3D Self-Navigation) traite d'une méthode de cor¬rection du mouvement 3D plutôt que 2D uniquement. Ici, différentes tech¬niques ont été adoptées pour réduire la contribution du signal du fond dans le suivi de mouvement respiratoire, qui peut être influencé négativement par le tissu statique qui entoure le coeur. La méthode proposée a démontré une amélioration, par rapport à la procédure classique SN de correction 1D, de la visualisation des artères coronaires dans le groupe de sujets sains et des pa¬tients avec maladies cardio-vasculaires. Dans la troisième étude (section 2.4,3D Self-Navigation with Compressed Sensing), les mêmes méthodes de suivi ont été utilisées pour obtenir des sous-images triées selon la position respiratoire. Au lieu de la correction du mouvement, une reconstruction de CS a été réalisée sur toutes les sous-images triées. Cette procédure exploite la cohérence des données pour réduire les artefacts de sous- échantillonnage de telle sorte que la sous-image correspondant à la phase de fin d'expiration peut directement être utilisée pour visualiser les coronaires. Dans un échantillon de volontaires en bonne santé, cette stratégie a amélioré la netteté et la visualisation des artères coronaires par rapport à une méthode classique SN ID. Pour la visualisation des parois des vaisseaux et de plaques d'athérosclérose, la technique de pointe avec double récupération d'inversion (DIR) est capa¬ble de supprimer le signal provenant du sang et de fournir un contraste posi¬tif entre la paroi et la lumière. Pourtant, il est difficile d'obtenir un contraste optimal car cela est soumis à la variabilité du rythme cardiaque. Par ailleurs, l'imagerie DIR est inefficace du point de vue du temps et les acquisitions "mul- tislice" peuvent conduire à des temps de scan prolongés. En réponse à ce prob¬lème et comme quatrième étude de cette thèse (chapitre 3, Vessel Wall MRI of the Carotid Arteries), une méthode de DIR phase-sensitive a été implémenté et testé

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Détecter et comprendre les formes de criminalité, notamment organisées, qui sont impliquées dans la fabrication, la diffusion et/ou l'utilisation de faux documents d'identité est un enjeu complexe et persistant, mais est une nécessité pour soutenir l'action de la sécurité et l'étude des phénomènes criminels. A cet égard, il est postulé qu'une approche traçologique s'appuyant sur un profilage systématique des caractéristiques matérielles des faux documents d'identité peut fournir des renseignements criminels originaux, utiles et pertinents. Une méthode générale a été développée pour extraire, mémoriser et comparer systématiquement les profils des faux documents d'identité saisis par les acteurs de la sécurité. Cette méthode permet de détecter et de suivre les relations entre cas, les tendances et patterns criminels, dont l'interprétation au travers de différentes formes d'analyse permet la mise en évidence de potentiels groupes criminels, d'auteurs prolifiques et de <i>modus operandi</i> récurrents. Par l'étude de centaines de faux documents d'identité saisis par la police et les garde-frontière dans deux pays distincts, cet article démontre comment le renseignement forensique peut soutenir la génération et l'étude d'hypothèses sur la criminalité, aidant par-là la compréhension des marchés et réseaux criminels sur les plans stratégique, opérationnel et tactique. L'article illustre également comment le renseignement forensique peut soutenir des mesures préventives et peut contribuer à l'analyse des risques que posent les faux documents d'identité, voire à la remise en cause de la stratégie sécuritaire et de contrôle actuelle. L'approche proposée présente un carctère essentiellement générique puisque, à l'instar de l'exemple des faux documents d'identité, n'importe quel type de trace matérielle peut être traité systématiquement et scientifiquement de sorte à contribuer à la construction structurée de connaissances sur la criminalité et la sécurité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'enquête Internet ANSWER (African Net Survey WE Respond!) auprès des migrants provenant d'Afrique subsaharienne (ASS) a été menée entre septembre 2013 et février 2014, sur mandat de l'OFSP et avec la collaboration de l'ASS. Cette enquête s'inscrit dans le cadre du mandat de surveillance épidémiologique de deuxième génération du VIH et des autres IST auquel l'IUMSP participe activement. Le but de cette enquête a été de décrire dans cette population les connaissances, attitudes et comportements (en particulier, les comportements sexuels, l'usage de préservatifs et la réalisation de tests de dépistage du VIH) en lien avec la prévention du VIH et des autres infections sexuellement transmissibles. Une analyse exploratoire de facteurs associés à certains comportements (partenaires multiples, utilisation de préservatifs, réalisation de tests) a également été menée. Il s'agissait d'une enquête par Internet auto-administrée disponible en 7 langues, à laquelle les personnes originaires d'Afrique subsaharienne étaient invitées à participer. Un groupe d'accompagnement composé de professionnels de la prévention du VIH et de médiateurs culturels de différents pays africains a participé activement à toutes les étapes du projet (conception du questionnaire, traductions, cognitive testing, promotion de l'enquête, mobilisation communautaire).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse met en lumière les relations réciproques entre les deux artefacts‐clés de la culture russe et mondiale du XXe siècle : la théorie du carnaval et de la ménippée de Mikhaïl Bakhtine et le dernier roman de Mikhaïl Boulgakov. Les chercheurs n'ont pas tardé à remarquer leur étonnante synthonie après leur sortie de l'oubli qui a eu lieu presque en même temps et qui a été marquée par la publication des ouvrages de Bakhtine Problèmes de la poétique de Dostoïevski (1963), L'oeuvre de François Rabelais et la culture populaire au Moyen Âge et sous la Renaissance (1965) et par la parution du roman de Boulgakov Le Maître et Marguerite (1966-1967). C'est déjà dans la postface de la première édition du roman que Le Maître et Marguerite reçoit le nom de «ménippée de Bakhtine». Un tel rapprochement entre la théorie de Bakhtine et le roman de Boulgakov s'explique par leur intérêt simultané pour différentes manifestations de la poétique du carnaval qui s'appuie sur des traditions portant l'empreinte des conceptions du temps cyclique et de l'éternel retour par le biais de la mort, propres aux rituels agraires de l'époque archaïque et aux fêtes du Nouvel An de l'Antiquité. A partir du début du XXe siècle et jusqu'aux années 40, la notion de carnavalesque en Russie est un ensemble d'idées unique, un concept doté d'un caractère d'universalité culturelle de son temps: le carnavalesque attire l'attention non seulement de Bakhtine et de Boulgakov, mais aussi de presque tous les modernistes russes et de certains philologues de l'époque. Dans notre travail, l'étude de la ressemblance des approches du problème du carnaval chez Boulgakov et chez Bakhtine s'organise selon deux axes de recherche. Le premier est lié à la théorie des genres moderne et à son développement dans la philosophie de Bakhtine. C'est dans ce contexte que nous examinons la notion antique de la satire ménippée (ou de la ménippée), considérée par Bakhtine en tant que genre littéraire qui reflète le mieux la poétique du carnaval. C'est également ce contexte qui nous permet d'analyser l'évolution de la théorie du carnaval et de la ménippée chez Bakhtine depuis ses travaux des années 30 jusqu'à la parution du « quatrième chapitre célèbre » de la deuxième édition de son ouvrage consacré à Dostoïevski. Le même contexte sert à délimiter l'emploi de la théorie du carnaval et de la ménippée dans la critique littéraire et à déterminer l'efficacité de cet outil théorique que nous utilisons lors de l'analyse du roman Le Maître et Marguerite. Le second axe de notre recherche est lié à l'étude des traditions du carnaval, à l'examen de leurs sources mythologiques et de leurs sources relatives aux mystères. Ces sources sont considérées telles qu'elles se présentent dans les manières de concevoir le carnaval propres à Bakhtine et à Boulgakov que nous avons nommées, respectivement, le carnaval de Bakhtine et le carnaval de Boulgakov. La reconstruction du carnaval de Bakhtine a permis de mettre en évidence plusieurs approches du thème du carnaval présentes dans ses ouvrages. La distinction de ces approches est d'autant plus importante que son oubli peut causer de fausses interprétations des idées de Bakhtine exprimées dans L'oeuvre de François Rabelais et mener à des critiques injustes de son auteur. Nous avons également tenu compte des théories avec lesquelles dialogue la philosophie du carnaval de Bakhtine : nous l'avons examinée en relation avec des études de la fête, du carnaval et du sacrifice caractéristiques du paysage scientifique des premières décennies du XXe siècle. Nous avons également comparée la philosophie du carnaval aux théories des philosophes européens contemporains de Bakhtine qui se sont intéressés à la même problématique, mais qu'on n'a pas l'habitude de mentionner à ce propos. En ce qui concerne l'étude du roman Le Maître et Marguerite et l'analyse du carnaval de Boulgakov, nous avons tâché d'unir deux approches. D'une part, nous avons mis au jour les sources de l'auteur ; d'autre part, nous avons examiné cette oeuvre dans une perspective dont le but est d'aider à comprendre la spécificité du carnavalesque chez Boulgakov en s'appuyant sur des travaux d'éminents spécialistes du folklore, de la mytho-archéologie, de la mytho-critique et de la sémiotique moderne. Notre recherche a permis de mettre en évidence les manifestations caractéristiques de la poétique du carnaval dans Le Maître et Marguerite, auparavant négligées par la critique. En outre, nous avons prêté une attention particulière à la façon dont Boulgakov utilise des éléments et modèles mythologiques « pré-carnavalesques » qui n'ont pas été étudiés de manière suffisante dans l'oeuvre de Bakhtine. Cela nous a permis non seulement de voir sous un autre jour les scènes-clés du roman, mais aussi d'avoir la connaissance plus approfondie du carnaval de Bakhtine à travers le carnaval de Boulgakov.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'hydrogène sulfuré (H2S) est un gaz toxique retrouvé à l'état naturel et dans certains milieux industriels, à l'origine d'intoxication accidentelle, mais pouvant être également et facilement synthétisé de manière domestique. Des cas de suicide par hydrogène sulfuré ont ainsi été décrits à partir de produits ménagers dans la littérature depuis 2009, aux États-Unis et au Japon. La plupart présentait des délais post mortem (DPM) courts (moins de 72 heures). En France, les intoxications aiguës à l'H2S demeurent rares et sont le plus souvent liées à des accidents du travail. Nous rapportons ici le cas d'un homme âgé de 37 ans découvert à son domicile, en état de décomposition avancée avec un DPM de deux mois. Compte tenu de la présence d'une importante signalétique avisant du danger potentiel d'exposition à l'H2S, des mesures de précaution ont été mises en oeuvre dès la découverte du corps et poursuivies jusqu'aux opérations d'autopsie. Les analyses toxicologiques ont confirmé la présence d'H2S au niveau des prélèvements de cerveau et de muscle. Le cas présenté constitue le premier cas de suicide avec un délai post mortem long à l'H2S rapporté en France. Dans la littérature, les constatations macroscopiques à l'autopsie ne sont pas spécifiques tandis que les analyses toxicologiques reposent essentiellement sur la recherche et la quantification d'H2S. En raison de leur redistribution post mortem, les résultats de ces analyses doivent être interprétés avec prudence, et encore plus en cas de délai post mortem long et de phénomènes de putréfaction qui peuvent également être une source de génération d'H2S post mortem. Hydrogen sulfide (H2S) which is a poisonous gas found either in the natural state or in industrial environments and potentially linked with accidental intoxication, can also be easily handmade. Several cases of suicide by inhaling H2S produced by mixing household products have been reported in the literature since 2009 in USA and Japan. Most of them involved short post mortem delays up to 72 hours. In France, acute H2S poisoning remains rare and mostly accidental. We report the case of a 37-year-old man found at home, in an advanced stage of decomposition with a 2-month post mortem delay. As numerous warning signs about a high risk of H2S exposure were present, some precautionary measures were taken from the discovery of the cadaver to the autopsy. Toxicological analyses confirmed the presence of H2S in brain and muscle samples. This observation is the first French case with a long post mortem delay. As macroscopic findings in such cases are described to be unspecific in literature, toxicological analysis must focus on the detection and the quantification of H2S. However, due to the phenomena of post mortem drug redistribution and neo-formation, their results should be interpreted with much more caution when the post mortem delay is long. The potential increase in such voluntary-intoxication-related-deaths in France, similar to the recent Japanese and American waves of suicides, requires for forensic scientists, a good knowledge of both thanatological and toxicological pictures, and precautionary measures to adopt in such situations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette thèse a été d'investiguer la relation entre, d'une part le temps de propagation de l'onde de pouls artérielle du coeur vers les membres inférieurs, et d'autre part le temps séparant, au niveau de l'aorte ascendante, la génération de l'onde antérograde du retour des ondes réfléchies. Le principe de la méthode employée a été de mesurer ces deux temps par deux méthodes indépendantes, ce en les faisant varier par changement rapide de la position du corps, chez sujets humains volontaires. Le facteur gravitationnel a en effet une influence majeure sur la pression transmurale des artères, dont dépend largement la vitesse de propagation des ondes de pouls, tant dans le sens antérograde que rétrograde. Vingt sujets jeunes, en bonne santé, dontIO hommes et 10 femmes, ont été examinés sur une table de tilt, dans deux positions différentes : tête vers le bas (angle de tilt : - 10°) et tête vers le haut (+45°).Dans chaque position, le temps de propagation carotido- femorale (Tcf, succédané du temps aorto-fémoral) et carotido-tibial (Tct, succédané du temps aorto-tibial) a été mesuré avec l'appareil Complior. De même, dans chaque position la pression aortique centrale a été enregistrée par tonométrie radiale en utilisant l'appareil SphygmoCor qui applique une fonction de transfert généralisé pour reconstruire la forme de l'onde de pouls aortique. L'analyse de celle-ci permet ensuite de calculer les temps d'aller-retour des ondes réfléchies atteignant l'aorte pendant la systole (début de l'onde réfléchie, sT1 r) et pendant la diastole (temps de transit moyen de l'onde diastolique réfléchie dMTT). Le changement de position de tête vers le haut à tête vers le bas, a provoqué une augmentation importante du temps de propagation Tct (chez le femmes de 130±10 à 185±18msec, P<0,001 et chez les hommes de 136±9 à 204±18msec P<0.001) ainsi que du temps moyen de transition de l'onde diastolique réfléchie dMTT (chez les femmes de 364±35 à 499±33msec P<0,001 et chez les hommes de 406±22 à 553±21msec, P<0,001). Un modèle de régression mixte montre qu'entre les deux positions, les variations de dMTT sont environ le double de celles de Tct (coefficient de régression 2.1; 95% intervalle de confiance 1.9-2,3, P<0,001). Ces résultats suggèrent que les ondes diastoliques observées dans l'onde de pouls aortique central reconstruites par tonométrie radiale, correspondent, du moins en partie, aux ondes réfléchies générées au niveau des membres inférieurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Ivrea and the Strona-Ceneri zones, NW italy and S Switzerland, offer the possibility to study the continental crust of the Southern Alps. Because of its high metamorphic degree and the abundant Permo- Carboniferous mafic intrusions, the Ivrea Zone is classically interpreted an exposed section trough the Permian lower crust. The present work is focused here on metasedimentary slices (septa) intercalated within Permian gabbro (mafic complex). In particular I studied the evolution of accessory phases such as rutile and zircon and the chemistry of the metasediments. The septa build an irregular and discontinuous band that cut obliquely the mafic complex from its deepest part (N) to its roof (S). The chemistry of the metasediments evolves along the band and the chemical evolution can be compared with that observed in the country-rock surrounding the mafic intrusion to the NE and overprinted by a main regional metamorphic event. This suggests that the degree of chemical depletion of the septa was mainly established during the same regional metamorphic event. Moreover it suggests that incorporation of the septa within the gabbro did not modify their original stratigraphie distribution within the crust. It implies that the mafic complex has been emplaced following a dynamic substantially different from the classic model of « gabbro glacier » (Quick et al., 1992; Quick et al., 1994). It is more likely that it has been emplaced by repeated injections of sills at different depths during a protracted period of time. Zircon trace elements and U-Pb ages suggest that regional metamorphism occurred 330-320Ma, the first sills in the deepest part of the Mafic Complex are injected at ~300Ma, the mafic magmas reached higher levels in the crust at 285Ma and the magmatic activity continued locally until 275Ma. The ages of detrital cores in zircons fix the maximal sedimentation age at ~370Ma, this age corresponds therefore with the maximal age of the incorporation of the Ivrea zone within the lower crust. I propose that the Ivrea zone has been accreted to the lower crust during the Hercynian orogeny sensu lato. The analysis of detrital ages suggests that the source terrains for the Ivrea zone and those for the Strona-Ceneri zone have a completely different Palaeozoic history. The systematic analysis of rutile in partially molten metasediments of the Ivrea zone reveals the occurrence of two generations. The two generations are characterized by a different chemistry and textural distribution. A first generation is formed during pro-grade metamorphism in the restitic counterpart. The second generation is formed in the melts during cooling at the same time that part of the first generation re-equilibrate. Re-equilibration of the first generation seems to be spatially controlled by the presence of fluids. Locally the second generation forms overgrowths on the first generation. Considered the different diffusivity of U and Pb in rutile, U heterogeneities have important implication for U-Pb dating of rutile. ID-TIMS and LA-ICPMS dating coupled with a careful textural investigation (SEM) suggest that rutile grains are characterized by multiple path along which Pb diffusion can occur: volume diffusion is an important process, but intragrain and subgrain boundaries provide additional high diffusivity pathways for Pb escape and reduce drastically the effective diffusion length. -- La zone d'Ivrea et la zone de Strona-Ceneri, en Italie nord-occidentale et Suisse méridionale, offrent la possibilité d'étudier la croûte continentale des Alpes du Sud. En raison du haut degré métamorphique et l'abondance d'intrusions mafiques d'âge Permo-Carbonifère [complexe mafique), la zone d'Ivrea est interprétée classiquement comme de la croûte inférieure permienne. Ce travail ce concentre sur des bandes metasédimentaires (septa) incorporées dans les magmas mafiques lors de l'intrusion. Les septa forment une bande irrégulière qui coupe obliquement le complexe mafique du bas (N) vers le haut (S). La chimie des septa évolue du bas vers le haut et l'évolution chimique se rapproche de l'évolution observé dans la roche encaissante l'intrusion affecté par un événement métamorphique régionale. Cette relation suggère que le degré d'appauvrissement chimique des septa a été établit principalement lors de l'événement métamorphique régional. De plus l'incorporation dans les gabbros n'a pas perturbée la distribution stratigraphique originelle des septa. Ces deux observations impliquent que le métamorphisme dans la roche encaissante précède la mise en place du gabbro et que cette dernière ne se fait pas selon le modèle classique (« gabbro glacier » de Quick et al., 1992, 1994), mais se fait plutôt par injections répétées de sills a différentes profondeurs. Les âges U-Pb et les éléments traces des zircons suggèrent que le métamorphisme régionale a eu lieu 330-320Ma, alors que les premiers sills dans la partie profonde du Mafic Complex s'injectent à ~300Ma, le magmatisme mafique atteigne des niveaux supérieurs à 285Ma et continue localement jusqu'à 270Ma. Les âges des coeurs détritiques des zircons permettent de fixer l'âge maximale de sédimentation à ~370Ma ce qui correspond donc à l'âge maximale de l'incorporation de la zone d'Ivrea dans la croûte inférieur. L'analyse systématique des rutiles, nous a permit de montrer l'existence de plusieurs générations qui ont une répartition texturale et une chimie différente. Une génération se forme lors de l'événement UHT dans les restites, une autre génération se forme dans les liquides lors du refroidissement, au même temps qu'une partie de la première génération se rééquilibre au niveau du Zr. Localement la deuxième génération peut former des surcroissances autour de la première génération. Dans ces cas, des fortes différences en uranium entre les deux générations ont des importantes implications pour la datation U-Pb sur rutile. Classiquement les ratios Pb/U dans le rutile sont interprétés comme indiquant l'âges du refroidissement du minéral sous une température à la quelle la diffusion du Pb dans le minéral n'est plus détectable et la diffusion à plus hautes températures est assumée se faire par «volume diffusion» dans le grain (Mezger et al., 1989). Par des datations ID-TIMS (sur grain entier) et LA-ICPMS (in-situ) et une analyse texturale (MEB) approfondie nous montrons que cette supposition est trop simpliste et que le rutile est repartie en sous-domaines. Chacun de ces domaines a ça propre longueur ou chemin de diffusion spécifique. Nous proposons donc une nouvelle approche plus cohérente pour l'interprétation des âges U-Pb sur rutile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nowadays, Species Distribution Models (SDMs) are a widely used tool. Using different statistical approaches these models reconstruct the realized niche of a species using presence data and a set of variables, often topoclimatic. There utilization range is quite large from understanding single species requirements, to the creation of nature reserve based on species hotspots, or modeling of climate change impact, etc... Most of the time these models are using variables at a resolution of 50km x 50km or 1 km x 1 km. However in some cases these models are used with resolutions below the kilometer scale and thus called high resolution models (100 m x 100 m or 25 m x 25 m). Quite recently a new kind of data has emerged enabling precision up to lm x lm and thus allowing very high resolution modeling. However these new variables are very costly and need an important amount of time to be processed. This is especially the case when these variables are used in complex calculation like models projections over large areas. Moreover the importance of very high resolution data in SDMs has not been assessed yet and is not well understood. Some basic knowledge on what drive species presence-absences is still missing. Indeed, it is not clear whether in mountain areas like the Alps coarse topoclimatic gradients are driving species distributions or if fine scale temperature or topography are more important or if their importance can be neglected when balance to competition or stochasticity. In this thesis I investigated the importance of very high resolution data (2-5m) in species distribution models using either very high resolution topographic, climatic or edaphic variables over a 2000m elevation gradient in the Western Swiss Alps. I also investigated more local responses of these variables for a subset of species living in this area at two precise elvation belts. During this thesis I showed that high resolution data necessitates very good datasets (species and variables for the models) to produce satisfactory results. Indeed, in mountain areas, temperature is the most important factor driving species distribution and needs to be modeled at very fine resolution instead of being interpolated over large surface to produce satisfactory results. Despite the instinctive idea that topographic should be very important at high resolution, results are mitigated. However looking at the importance of variables over a large gradient buffers the importance of the variables. Indeed topographic factors have been shown to be highly important at the subalpine level but their importance decrease at lower elevations. Wether at the mountane level edaphic and land use factors are more important high resolution topographic data is more imporatant at the subalpine level. Finally the biggest improvement in the models happens when edaphic variables are added. Indeed, adding soil variables is of high importance and variables like pH are overpassing the usual topographic variables in SDMs in term of importance in the models. To conclude high resolution is very important in modeling but necessitate very good datasets. Only increasing the resolution of the usual topoclimatic predictors is not sufficient and the use of edaphic predictors has been highlighted as fundamental to produce significantly better models. This is of primary importance, especially if these models are used to reconstruct communities or as basis for biodiversity assessments. -- Ces dernières années, l'utilisation des modèles de distribution d'espèces (SDMs) a continuellement augmenté. Ces modèles utilisent différents outils statistiques afin de reconstruire la niche réalisée d'une espèce à l'aide de variables, notamment climatiques ou topographiques, et de données de présence récoltées sur le terrain. Leur utilisation couvre de nombreux domaines allant de l'étude de l'écologie d'une espèce à la reconstruction de communautés ou à l'impact du réchauffement climatique. La plupart du temps, ces modèles utilisent des occur-rences issues des bases de données mondiales à une résolution plutôt large (1 km ou même 50 km). Certaines bases de données permettent cependant de travailler à haute résolution, par conséquent de descendre en dessous de l'échelle du kilomètre et de travailler avec des résolutions de 100 m x 100 m ou de 25 m x 25 m. Récemment, une nouvelle génération de données à très haute résolution est apparue et permet de travailler à l'échelle du mètre. Les variables qui peuvent être générées sur la base de ces nouvelles données sont cependant très coûteuses et nécessitent un temps conséquent quant à leur traitement. En effet, tout calcul statistique complexe, comme des projections de distribution d'espèces sur de larges surfaces, demande des calculateurs puissants et beaucoup de temps. De plus, les facteurs régissant la distribution des espèces à fine échelle sont encore mal connus et l'importance de variables à haute résolution comme la microtopographie ou la température dans les modèles n'est pas certaine. D'autres facteurs comme la compétition ou la stochasticité naturelle pourraient avoir une influence toute aussi forte. C'est dans ce contexte que se situe mon travail de thèse. J'ai cherché à comprendre l'importance de la haute résolution dans les modèles de distribution d'espèces, que ce soit pour la température, la microtopographie ou les variables édaphiques le long d'un important gradient d'altitude dans les Préalpes vaudoises. J'ai également cherché à comprendre l'impact local de certaines variables potentiellement négligées en raison d'effets confondants le long du gradient altitudinal. Durant cette thèse, j'ai pu monter que les variables à haute résolution, qu'elles soient liées à la température ou à la microtopographie, ne permettent qu'une amélioration substantielle des modèles. Afin de distinguer une amélioration conséquente, il est nécessaire de travailler avec des jeux de données plus importants, tant au niveau des espèces que des variables utilisées. Par exemple, les couches climatiques habituellement interpolées doivent être remplacées par des couches de température modélisées à haute résolution sur la base de données de terrain. Le fait de travailler le long d'un gradient de température de 2000m rend naturellement la température très importante au niveau des modèles. L'importance de la microtopographie est négligeable par rapport à la topographie à une résolution de 25m. Cependant, lorsque l'on regarde à une échelle plus locale, la haute résolution est une variable extrêmement importante dans le milieu subalpin. À l'étage montagnard par contre, les variables liées aux sols et à l'utilisation du sol sont très importantes. Finalement, les modèles de distribution d'espèces ont été particulièrement améliorés par l'addition de variables édaphiques, principalement le pH, dont l'importance supplante ou égale les variables topographique lors de leur ajout aux modèles de distribution d'espèces habituels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les antipsychotiques atypiques, de deuxième génération, ont largement contribué à améliorer le traitement des patients souffrant de schizophrénie. Cependant, leur mécanisme d'action reste mal compris et leurs effets secondaires sont importants, notamment la prise de poids. CRTC1 (CREB-regulated transcription coactivator 1), aussi appelé TORC1 (transducers of regulated CREB activity 1), est un coactivateur de CREB. Il régule la transcription de Bdnf1 qui joue un rôle essentiel dans le contrôle de la balance énergétique dépendant du VMH 2, 3, 4. Nous pensons que CRTC1 est impliqué dans la prise de poids induite par certains antipsychotiques. En effet, il a été démontré que les souris Crtc1-/- devenaient hyperphagiques et obèses 5, 6, que la régulation de l'activité de CRTC1 se faisait par l'AMPK et que les antipsychotiques atypiques activaient cette kinase dans l'hypothalamus.7 L'AMPK de l'hypothalamus est liée à la régulation de la prise alimentaire, elle inverse l'action de la leptine, hormone anorexigène. Suite à ces constatations, nous proposons de suivre l'hypothèse de travail suivante : l'activation de l'AMPK par les antipsychotiques atypiques dans l'hypothalamus peut maintenir la phosphorylation de CRTC1 et le bloquer dans le cytoplasme, l'empêchant ainsi d'activer les gènes anorexigènes, comme Bdnf par exemple. En effet, la forme phosphorylée inactive de CRTC1 est séquestrée dans le cytoplasme et sa migration dans le noyau nécessite en même temps l'activation de la phosphatase calcineurine et l'inactivation des kinases de la famille de l'AMPK. Dans le travail que nous avons entamé, nous cherchons donc, par western blot et par immunohistochimie, à comprendre si les antipsychotiques atypiques inactivent CRTC1 en induisant sa phosphorylation par l'AMPK et sa rétention dans le cytoplasme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : La douleur aux soins intensifs adultes est un problème majeur auquel l'équipe soignante est confrontée quotidiennement. Elle nécessite un traitement adéquat et, pour ce faire, une évaluation systématique et précise est requise. Les patients hospitalisés aux soins intensifs sont vulnérables de par leurs pathologies et les multiples stimulations douloureuses auxquelles ils sont exposés. L'évaluation de la douleur est rendue complexe par le fait qu'ils ne peuvent pas la communiquer verbalement. L'utilisation d'échelles d'évaluation de la douleur est recommandée, mais les scores obtenus doivent être interprétés et contextualisés. Evaluer la douleur chez ce type de patient demande aux infirmières des connaissances et compétences élevées, à même d'être mobilisées lors d'un processus complexe lié au raisonnement clinique. But : l'objectif de cette étude descriptive observationnelle est de décrire les indicateurs influençant le raisonnement clinique de l'infirmière1 experte lors de l'évaluation de la douleur chez les patients ventilés, sédatés et non communicants aux soins intensifs. Les résultats produisent une meilleure compréhension de l'évaluation et de la gestion de la douleur en pratique et, finalement, participent à l'amélioration de la qualité de son évaluation et de sa gestion. Méthode : un échantillon de convenance de sept infirmières expertes travaillant dans une unité de soins intensifs d'un hôpital universitaire de Suisse Romande a été constitué pour cette étude. Les données ont été récoltées en situation réelle lors de l'évaluation de la douleur de sept patients en utilisant la méthode du think aloud, par une observation non participative et par un entretien semistructuré. Les données ont été analysées en utilisant une méthode d'analyse de contenu déductive sur la base d'un modèle de raisonnement clinique, comprenant les suivantes: le contexte, la situation du patient, la génération d'hypothèses, les actions infirmières et l'évaluation de l'action. Résultats : la moyenne d'expérience des infirmières participantes est de 15 ans (ÉT 4.5) en soins et de 7.85 ans (ÉT 3.1) en soins intensifs. Sept patients étaient ventilés, sédatés et non communicants ayant une moyenne de score APACHE II2 de 19. Les résultats montrent que les infirmières se basent principalement sur des indicateurs physiologiques pour évaluer la douleur. Elles cherchent à prévenir la douleur pour le patient. Elles se réfèrent régulièrement à des situations déjà vécues (pattern). Elles mobilisent leurs connaissances pour pondérer l'agitation liée à la douleur ou à d'autres causes en générant des hypothèses, puis réalisent un test antalgique pour confirmer ou infirmer l'hypothèse retenue. Conclusion : le contexte clinique joue un rôle important dans le raisonnement clinique de l'infirmière et la gestion de la douleur. Pour faciliter cette tâche, l'évaluation de la douleur doit être combinée avec l'évaluation de la situation clinique du patient et du niveau de sédation des patients de soins intensifs.