18 resultados para Dommages moraux
Resumo:
Ce mémoire se divise en quatre chapitres: 1. la problématique, 2. la méthodologie, 3. la présentation et 4. la discussion des résultats. Au cours de la problématique, nous allons essayer de cerner le phénomène que nous proposons d'étudier. Pour y parvenir, tour à tour, des connaissances sur le monde des assurances de dommages dans son contexte de transformation, sur le concept de qualification, complexe et difficile à délimiter, sur la dimension dynamique du concept de qualification et, enfin, sur les différents modes d'organisation du travail dans le monde des assurances seront exposées. Au fil de l'exposé, les faits saillants qui permettront d'aboutir, logiquement et sans heurt, à la présentation du problème de recherche seront soulignés. Après, la présentation du problème de recherche, nous conclurons le chapitre posant la problématique. Une fois le problème posé, dans le deuxième chapitre, nous traiterons de la méthodologie de la recherche. La discussion des choix méthodologiques et les modalités d'exécution de ces choix seront simultanément exposés dans cette partie du mémoire. Les principaux éléments méthodologiques concerneront la recherche qualitative, la stratégie de l'étude de cas, le choix du site de la recherche, l'accès au site de la recherche, l'entrevue semi-directive, la méthode d'analyse des données et les critères de scientificité. Les chapitres 3. et 4. sont présentés par sections intermittentes. C'est-à-dire que ces deux chapitres sont divisés en plusieurs sections et qu'après chaque • segment de résultats présentés suivra une discussion sur les phénomènes décrits. Les raisons pour lesquelles nous avons choisi d'imbriquer les résultats avec les discussions étaient d'en simplifier la compréhension et d'en rendre la lecture plus stimulante. Lors de la présentation des résultats, nous nous attarderons à rendre compte des informations que nous aurons recueillies sur la déqualification/requalification des agents d'assurances. Les présentations, surtout descriptives, seront aussi près de la réalité que possible. Quelques hypothèses de travail seront formulées et de multiples extraits d'entrevue seront utilisés pour illustrer nos propos. Ensuite, lors des discussions, nous confronterons les résultats aux différents écrits pertinents issus des milieux scientifiques et des revues spécialisées en assurances. L'ensemble des présentations des résultats et des discussions aura pour objet d'éclairer suffisamment le phénomène à l'étude pour permettre d'établir la nature de la déqualification/requalification des agents d'assurances.
Resumo:
Les protéines MCM (minichromosome maintenance) forment un complexe hétérohexamérique composé des protéines MCM2 à MCM7 qui possède une activité hélicase nécessaire lors de la réplication de l’ADN. Ce complexe est la cible des protéines ATM et ATR, kinases responsables de l’initiation de la réponse cellulaires aux dommages à l’ADN, pour permettre l’arrêt de la réplication lors de la détection de cassure double brin. De plus, les MCM permettent le remodelage de la chromatine par leur activité hélicase mais aussi par leur association avec une chaperone d’histone la protéine ASF1. Toutefois, la majorité des complexes MCM ne co-localisent pas avec les origines de réplication. De plus, la quantité des protéines MCM dans la cellule est nettement supérieure à la quantité requise lors de la réplication. Ces deux faits laissent présager que ce complexe hélicase pourrait jouer un second rôle. Des études effectuées au laboratoire ont démontré une augmentation de la fixation à la chromatine des protéines MCM suite au traitement avec l’étoposide, un inhibiteur de la topoisomérase II qui cause des cassures double brin. L’étude des interactions de la protéine MCM2 par spectrométrie de masse ainsi que par immunobuvardage ont démontré une augmentation de l’interaction entre la protéine MCM2 et ASF1 suite aux dommages. Ceci suggère que les protéines MCM pourraient être impliquées dans les mécanismes de réparation de l’ADN. La nature de l’interaction entre la protéine MCM2 et ASF1 a été déterminée in vitro par des immunobuvardages de type Far western et des Dot blot avec des mutants de la protéine MCM2. Des cellules U2OS-Flp-in ont été utilisées pour générer des lignées stables exprimants les protéines MCM2 à MCM7 avec une étiquette GFP ou fusionnées avec une biotine-ligase (BirA). Les cellules ont été cultivées dans du milieu SILAC et des immunoprécipitations ont été effectuées sur des cellules contrôles (R0K0), des cellules qui expriment MCM-GFP ou BirA (R6K4) non-traitées et des cellules qui expriment MCM-GFP ou BirA traitées à l’étoposide (R10K8). Les immunoprécipitations ont été analysés au spectromètre de masse pour déterminer la modulation des interactions avant et après dommages à l’ADN. Les études d’interactions in vitro ont permis d’identifier que l’interaction entre la protéine MCM2 et ASF1 se situe entre les acides aminés 81-162 sur la protéine MCM2. L’approche de spectrométrie de masse a permis d’identifier plusieurs protéines liant le complexe MCM qui sont impliquées non seulement dans la réplication de l’ADN mais aussi dans le remodelage de la chromatine. De plus, certains de ces nouveaux partenaires augmentent leur interaction avec le complexe suite à l’induction de dommages. Ces résultats suggèrent que les protéines MCM jouent un rôle dans la réorganisation de la chromatine dans les mécanismes de réparation de l’ADN.
Resumo:
Des métastases cérébrales vont se développer chez 10 à 30% des patients atteints de cancer. La radiothérapie fait partie des possibilités de traitement, et ceci même si les dommages induits au cerveau par des rayonnements ionisants sont potentiellement importants. Nous proposons l’utilisation de l’Imagerie par Résonance Magnétique fonctionnelle (IRMf) sur le rat pour mieux comprendre ces effets. Ce mémoire traite de la mise en place d’un tel protocole d’IRMf. Les principaux points abordés sont la préparation de l’animal, les différentes insultes et stimulations sensorielles possibles ainsi que la méthode d’acquisition. Notre protocole d’insulte hyperoxique permet de déceler des dommages physiques d’origine vasculaire suite à une intense irradiation dans le cerveau du rat. Toutefois, la même procédure associée à une stimulation mécanique de la patte arrière de l’animal n’amène pas de changement observable à l’IRMf sur un sujet sain. Malgré tout, ce type de stimulation induit une réponse respiratoire, même sous anesthésie d’isoflurane. Une telle méthode n’est donc pas adéquate à l’étude d’animaux anesthésiés, surtout ceux dont la réponse cérébrale pourra avoir été réduite par une irradiation. Quelques améliorations et modifications du protocole seraient possiblement à même de permettre une mesure reproductible de la réponse d’IRMf à une stimulation sensorielle. Le présent mémoire décrit les tentatives de mise en place d’une stimulation sensorielle donnant lieu à une activation IRMf reproductible et localisée. De plus, un protocole de traitement d’image adapté au petit animal ainsi qu’une implémentation de la méthode keyhole ont été mis en place. L’insulte hyperoxique et ses effets sur le cerveau de rat ont été explorés plus en détail.
Resumo:
Parmi les méthodes les plus utilisées en inspection embarquée des structures (Structural Health Monitoring ou SHM), les techniques d’imagerie basées sur un modèle de propagation sont de plus en plus répandues. Pour les techniques d'imagerie basées sur un modèle de propagation, bien que ces techniques montent en popularité, la complexité des matériaux composites réduit grandement leur performance en détection d'endommagements comparativement aux démonstrations précédentes de leur potentiel sur des matériaux isotropes. Cette limitation dépend entre autres des hypothèses simplificatrices souvent posées dans les modèles utilisés et peut entraîner une augmentation des faux positifs et une réduction de la capacité de ces techniques à détecter des endommagements. Afin de permettre aux techniques d'imagerie basées sur un modèle d'offrir une performance équivalente à celle obtenue précédemment sur les structures métalliques, il est nécessaire d'exploiter des modèles de propagation considérant la dynamique complexe des ondes dans ce type de structures. Cette thèse présente les travaux effectués sur la modélisation de la propagation des ondes guidées dans les matériaux composites. En première partie, une amélioration simple des modèles de génération et de propagation est proposée afin de permettre de mieux reconstruire les signaux générés et propagés sur une structure composite. Par la suite, le potentiel de la technique « Excitelet » à détecter et positionner adéquatement un ou plusieurs endommagements sur un matériau, peu importe son empilement (d’un composite unidirectionnel à un matériau isotrope), est démontré tant pour le mode A[indice inférieur 0] que le mode S[indice inférieur 0]. Les résultats obtenus numériquement et expérimentalement démontrent une corrélation directe entre l'amélioration des modèles mathématiques derrière les techniques d'imagerie et la robustesse des techniques pour ce qui est de la précision sur le positionnement du dommage et du niveau de corrélation obtenu. Parmi les améliorations à la technique d'imagerie « Excitelet » proposées, une amélioration significative des résultats en imagerie est démontrée en considérant la distribution de cisaillement plan sous l’émetteur, ce qui est une nouveauté par rapport aux travaux de recherche précédents en imagerie. La performance de la technique d'imagerie via la modélisation de la propagation d'ondes guidées dans les laminés multicouches transverses isotropes est par la suite démontrée. Les équations de l'élasticité en 3D sont utilisées pour bien modéliser le comportement dispersif des ondes dans les composites, et cette formulation est par la suite implantée dans la technique d'imagerie « Excitelet ». Les résultats démontrent que l'utilisation d'une formulation mathématique plus avancée permet d'augmenter la précision quant au positionnement des dommages et à l'amplitude de la corrélation obtenue lors de la détection d'un dommage. Une analyse exhaustive de la sensibilité de la technique d’imagerie et de la propagation d’ondes aux conditions environnementales et à la présence de revêtement sur la structure est présentée en dernière partie. Les résultats obtenus montrent que la considération de la propagation complexe dans la formulation d’imagerie ainsi que la caractérisation des propriétés mécaniques « a priori » de l’imagerie améliorent la robustesse de la technique et confèrent à la technique « Excitelet » la capacité de détecter et positionner précisément un endommagement, peu importe le type de structure.
Resumo:
Abstract : The major objective of our study is to investigate DNA damage induced by soft X-rays (1.5 keV) and low-energy electrons (˂ 30 eV) using a novel irradiation system created by Prof. Sanche’s group. Thin films of double-stranded DNA are deposited on either glass and tantalum substrates and irradiated under standard temperature and pressure surrounded by a N[subscript 2] environment. Base release (cytosine, thymine, adenine and guanine) and base modifications (8-oxo-7,8-dihydro -2’-deoxyguanosine, 5-hydroxymethyl-2’-deoxyuridine, 5-formyl-2’-deoxyuridine, 5,6-dihydrothymidine and 5,6-dihydro-2’-deoxy uridine) are analyzed and quantified by LC-MS/MS. Our results reveal larger damage yields in the sample deposited on tantalum than those on glass. This can be explained by an enhancement of damage due to low-energy electrons, which are emitted from the metal substrate. From a comparison of the yield of products, base release is the major type of damage especially for purine bases, which are 3-fold greater than base modifications. A proposed pathway leading to base release involves the formation of a transient negative ion (TNI) followed by dissociative electron attachment (DEA) at the N-g lycosidic bond. On the other hand, base modification products consist of two major types of chemical modifications, which include thymine methyl oxidation products that likely arises from DEA from the methyl group of thymine, and 5,6-dihydropyrimidine that can involve the initial addition of electrons, H atoms, or hydride ions to the 5,6-pyrimidine double bond.
Resumo:
Chaque année, la grippe provoque des centaines de milliers de décès dans le monde. Dans le cas d’infections sévères, il a été démontré que la génération excessive de molécules inflammatoires telles que les cytokines et les chimiokines, la sécrétion d’espèces réactives dérivées de l'oxygène ainsi que l’afflux massif de cellules immunitaires innées et adaptatives dans les voies respiratoires contribuent à la génération de dommages pulmonaires aigus et contribuent à l'immunopathologie reliée à l’infection. Tenant compte de ce fait, le défi actuel dans le traitement de la grippe est de contrôler la réponse inflammatoire tout en inhibant la réplication virale afin de permettre à l'organisme de se défendre contre les infections sévères à l'influenza. Des études récentes ont montré que l’activation du récepteur nucléaire PPARγ par ses ligands, tel que la 15d-PGJ[indice inférieur 2], diminuait l’inflammation pulmonaire et améliorait la survie des souris infectées avec des doses létales du virus influenza. Mis à part ses effets sur PPARγ, le ligand 15d-PGJ[indice inférieur 2] est aussi connu pour activer le facteur nucléaire antioxydant Nrf2. Il a été montré que Nrf2 réduit la réplication du virus influenza. Cependant, son mode d'action dans cette fonction nécessite une clarification. De manière intéressante, une étude a montré que Nrf2 réduit l’inflammation pulmonaire en régulant l’expression de PPARγ et ceci dans un modèle murin du syndrome de détresse respiratoire aigu. Les résultats de ces études précédentes mènent à l’hypothèse que les voies de PPARγ et Nrf2 interagissent fonctionnellement et qu'elles sont impliquées dans la réduction de l’inflammation induite lors d'infections sévères causées par l'influenza. L’objectif général de cette étude est donc de mieux comprendre les mécanismes protecteurs de PPARγ et Nrf2 dans la régulation de l’inflammation et la réplication virale suite à une infection par le virus influenza. Nos résultats ont démontré premièrement que le fait de cibler les deux voies moléculaires PPARγ et Nrf2, permet une inhibition significative de l’inflammation et de la morbidité liée à l’infection. Dans un deuxième temps, nos résultats dévoilent le mécanisme antiviral de Nrf2 et démontrent que l’activation de cette voie réduit la réplication du virus influenza d’une façon dépendante de l’expression de l’antiprotéase SLPI.
Resumo:
Entre 1950 et 1970, le Québec a connu une période d’effervescence dans le domaine de la construction de bâtiments. De ce nombre se retrouvent plusieurs écoles construites avec de la maçonnerie non armée. En effet, ce matériau a servi dans la construction de murs structuraux ou non structuraux servants à faire la division des pièces dans ces bâtiments ainsi que pour isoler. Par contre, au niveau international, les murs constitués de blocs en béton ont fait mauvaise figure en subissant d’importants dommages principalement dus à un dimensionnement inadéquat. Ce programme de recherche a comme objectif principal de montrer que ce matériau pourvu d’armatures et complètement rempli de coulis permet d’atteindre les niveaux de performance escomptés. Pour y arriver, des essais sous charges cycliques à l’aide de vérins et d’un mur de réaction ont été effectués sur des murs en maçonnerie armée. Puisque les murs sont bien instrumentés, les résultats des essais ont permis d’idéaliser adéquatement le comportement des murs de maçonnerie ainsi que d’identifier les états d’endommagement pour chaque niveau de performance. À l’aide de ce modèle et de la variabilité des paramètres, la performance sismique d’une école typique de 2 étages située à Montréal a été évaluée à l’aide de courbes de fragilité selon l’analyse à bandes multiples. Afin de générer les accélérogrammes, ces derniers sont normalisés au spectre conditionné à la période fondamentale du bâtiment.
Resumo:
Le béton conventionnel (BC) a de nombreux problèmes tels que la corrosion de l’acier d'armature et les faibles résistances des constructions en béton. Par conséquent, la plupart des structures fabriquées avec du BC exigent une maintenance fréquent. Le béton fibré à ultra-hautes performances (BFUP) peut être conçu pour éliminer certaines des faiblesses caractéristiques du BC. Le BFUP est défini à travers le monde comme un béton ayant des propriétés mécaniques, de ductilité et de durabilité supérieures. Le BFUP classique comprend entre 800 kg/m³ et 1000 kg/m³ de ciment, de 25 à 35% massique (%m) de fumée de silice (FS), de 0 à 40%m de poudre de quartz (PQ) et 110-140%m de sable de quartz (SQ) (les pourcentages massiques sont basés sur la masse totale en ciment des mélanges). Le BFUP contient des fibres d'acier pour améliorer sa ductilité et sa résistance aux efforts de traction. Les quantités importantes de ciment utilisées pour produire un BFUP affectent non seulement les coûts de production et la consommation de ressources naturelles comme le calcaire, l'argile, le charbon et l'énergie électrique, mais affectent également négativement les dommages sur l'environnement en raison de la production substantielle de gaz à effet de serre dont le gas carbonique (CO[indice inférieur 2]). Par ailleurs, la distribution granulométrique du ciment présente des vides microscopiques qui peuvent être remplis avec des matières plus fines telles que la FS. Par contre, une grande quantité de FS est nécessaire pour combler ces vides uniquement avec de la FS (25 à 30%m du ciment) ce qui engendre des coûts élevés puisqu’il s’agit d’une ressource limitée. Aussi, la FS diminue de manière significative l’ouvrabilité des BFUP en raison de sa surface spécifique Blaine élevée. L’utilisation du PQ et du SQ est également coûteuse et consomme des ressources naturelles importantes. D’ailleurs, les PQ et SQ sont considérés comme des obstacles pour l’utilisation des BFUP à grande échelle dans le marché du béton, car ils ne parviennent pas à satisfaire les exigences environnementales. D’ailleurs, un rapport d'Environnement Canada stipule que le quartz provoque des dommages environnementaux immédiats et à long terme en raison de son effet biologique. Le BFUP est généralement vendu sur le marché comme un produit préemballé, ce qui limite les modifications de conception par l'utilisateur. Il est normalement transporté sur de longues distances, contrairement aux composantes des BC. Ceci contribue également à la génération de gaz à effet de serre et conduit à un coût plus élevé du produit final. Par conséquent, il existe le besoin de développer d’autres matériaux disponibles localement ayant des fonctions similaires pour remplacer partiellement ou totalement la fumée de silice, le sable de quartz ou la poudre de quartz, et donc de réduire la teneur en ciment dans BFUP, tout en ayant des propriétés comparables ou meilleures. De grandes quantités de déchets verre ne peuvent pas être recyclées en raison de leur fragilité, de leur couleur, ou des coûts élevés de recyclage. La plupart des déchets de verre vont dans les sites d'enfouissement, ce qui est indésirable puisqu’il s’agit d’un matériau non biodégradable et donc moins respectueux de l'environnement. Au cours des dernières années, des études ont été réalisées afin d’utiliser des déchets de verre comme ajout cimentaire alternatif (ACA) ou comme granulats ultrafins dans le béton, en fonction de la distribution granulométrique et de la composition chimique de ceux-ci. Cette thèse présente un nouveau type de béton écologique à base de déchets de verre à ultra-hautes performances (BEVUP) développé à l'Université de Sherbrooke. Les bétons ont été conçus à l’aide de déchets verre de particules de tailles variées et de l’optimisation granulaire de la des matrices granulaires et cimentaires. Les BEVUP peuvent être conçus avec une quantité réduite de ciment (400 à 800 kg/m³), de FS (50 à 220 kg/m³), de PQ (0 à 400 kg/m³), et de SQ (0-1200 kg/m³), tout en intégrant divers produits de déchets de verre: du sable de verre (SV) (0-1200 kg/m³) ayant un diamètre moyen (d[indice inférieur 50]) de 275 µm, une grande quantité de poudre de verre (PV) (200-700 kg/m³) ayant un d50 de 11 µm, une teneur modérée de poudre de verre fine (PVF) (50-200 kg/m³) avec d[indice inférieur] 50 de 3,8 µm. Le BEVUP contient également des fibres d'acier (pour augmenter la résistance à la traction et améliorer la ductilité), du superplastifiants (10-60 kg/m³) ainsi qu’un rapport eau-liant (E/L) aussi bas que celui de BFUP. Le remplacement du ciment et des particules de FS avec des particules de verre non-absorbantes et lisse améliore la rhéologie des BEVUP. De plus, l’utilisation de la PVF en remplacement de la FS réduit la surface spécifique totale nette d’un mélange de FS et de PVF. Puisque la surface spécifique nette des particules diminue, la quantité d’eau nécessaire pour lubrifier les surfaces des particules est moindre, ce qui permet d’obtenir un affaissement supérieur pour un même E/L. Aussi, l'utilisation de déchets de verre dans le béton abaisse la chaleur cumulative d'hydratation, ce qui contribue à minimiser le retrait de fissuration potentiel. En fonction de la composition des BEVUP et de la température de cure, ce type de béton peut atteindre des résistances à la compression allant de 130 à 230 MPa, des résistances à la flexion supérieures à 20 MPa, des résistances à la traction supérieure à 10 MPa et un module d'élasticité supérieur à 40 GPa. Les performances mécaniques de BEVUP sont améliorées grâce à la réactivité du verre amorphe, à l'optimisation granulométrique et la densification des mélanges. Les produits de déchets de verre dans les BEVUP ont un comportement pouzzolanique et réagissent avec la portlandite générée par l'hydratation du ciment. Cependant, ceci n’est pas le cas avec le sable de quartz ni la poudre de quartz dans le BFUP classique, qui réagissent à la température élevée de 400 °C. L'addition des déchets de verre améliore la densification de l'interface entre les particules. Les particules de déchets de verre ont une grande rigidité, ce qui augmente le module d'élasticité du béton. Le BEVUP a également une très bonne durabilité. Sa porosité capillaire est très faible, et le matériau est extrêmement résistant à la pénétration d’ions chlorure (≈ 8 coulombs). Sa résistance à l'abrasion (indice de pertes volumiques) est inférieure à 1,3. Le BEVUP ne subit pratiquement aucune détérioration aux cycles de gel-dégel, même après 1000 cycles. Après une évaluation des BEVUP en laboratoire, une mise à l'échelle a été réalisée avec un malaxeur de béton industriel et une validation en chantier avec de la construction de deux passerelles. Les propriétés mécaniques supérieures des BEVUP a permis de concevoir les passerelles avec des sections réduites d’environ de 60% par rapport aux sections faites de BC. Le BEVUP offre plusieurs avantages économiques et environnementaux. Il réduit le coût de production et l’empreinte carbone des structures construites de béton fibré à ultra-hautes performances (BFUP) classique, en utilisant des matériaux disponibles localement. Il réduit les émissions de CO[indice inférieur 2] associées à la production de clinkers de ciment (50% de remplacement du ciment) et utilise efficacement les ressources naturelles. De plus, la production de BEVUP permet de réduire les quantités de déchets de verre stockés ou mis en décharge qui causent des problèmes environnementaux et pourrait permettre de sauver des millions de dollars qui pourraient être dépensés dans le traitement de ces déchets. Enfin, il offre une solution alternative aux entreprises de construction dans la production de BFUP à moindre coût.
Resumo:
Une structure en béton armé est sujette à différents types de sollicitations. Les tremblements de terre font partie des événements exceptionnels qui induisent des sollicitations extrêmes aux ouvrages. Pour faire face à cette problématique, les codes de calcul des ponts routiers font appel à une approche basée sur des niveaux de performance qui sont rattachés à des états limites. Actuellement, les états limites d'une pile de ponts en béton armé (BA) confinée à l'aide de polymères renforcés de fibres de carbone (PRFC) proposés dans la littérature ne prennent pas en compte le confinement lié au chemisage de PRFC en combinaison avec celui des spirales d'acier. Ce projet de recherche était la suite du volet de contrôle non destructif d'une étude réalisée en 2012 qui comprenait un volet expérimental [Carvalho, 2012] et un volet numérique [Jean, 2012]. L'objectif principal était de compléter l'étude du comportement des poteaux en BA renforcés de PRFC soumis à un chargement cyclique avec les données acoustiques recueillies par St-Martin [2014]. Plus précisément, les objectifs spécifiques étaient de déterminer les états limites reliés aux niveaux de performance et de caractériser la signature acoustique de chaque état limite (p. ex. fissuration du béton, plastification de l'acier et rupture du PRFC). Une méthodologie d'analyse acoustique basée sur l'état de l'art de Behnia et al. [2014] a été utilisée pour quantifier la gravité, localiser et caractériser le type de dommages. Dans un premier temps, les données acoustiques provenant de poutres de 550 mm x 150 mm x 150 mm ont permis de caractériser la signature acoustique des états limites. Puis, des cinq spécimens d'essai construits en 2012, les données acoustiques de trois spécimens, soient des poteaux circulaires d'un diamètre de 305 mm et d'une hauteur de 2000 mm ont été utilisée pour déterminer les états limites. Lors de ces essais, les données acoustiques ont été recueillies avec 14 capteurs de résonances qui étaient reliés à un système multicanal et au logiciel AEwin SAMOS 5.23 de Physical Acoustics Corporation (PAC) [PAC, 2005] par St-Martin [2014]. Une analyse de la distribution des paramètres acoustiques (nbr. de comptes et énergie absolue) combiné à la localisation des événements et le regroupement statistique, communément appelé clustering, ont permis de déterminer les états limites et même, des signes précurseurs à l'atteinte de ces états limites (p. ex. l'initiation et la propagation des fissures, l'éclatement de l'enrobage, la fissuration parallèle aux fibres et l'éclatement du PRFC) qui sont rattachés aux niveaux de performances des poteaux conventionnels et confinés de PRFC. Cette étude a permis de caractériser la séquence d'endommagement d'un poteau en BA renforcé de PRFC tout en démontrant l'utilité de l'écoute acoustique pour évaluer l'endommagement interne des poteaux en temps réel. Ainsi, une meilleure connaissance des états limites est primordiale pour intégrer les PRFC dans la conception et la réhabilitation des ouvrages.
Resumo:
Abstract: It is well established that ionizing radiation induces a variety of damage in DNA by direct effects that are mediated by one-electron oxidation and indirect effects that are mediated by the reaction of water radiolysis products, e.g., hydroxyl radicals (•OH). In cellular DNA, direct and indirect effects appear to have about an equal effect toward DNA damage. We have shown that ϒ-(gamma) ray irradiation of aqueous solutions of DNA, during which •OH is the major damaging ROS can lead to the formation several lesions. On the other hand, the methylation and oxidative demethylation of cytosine in CpG dinucleotides plays a critical role in the gene regulation. The C5 position of cytosine in CG dinucleotides is frequently methylated by DNA methyl transferees (DNMTs) and constitutes 4-5% of the total cytosine. Here, my PhD research work focuses on the analysis of oxidative base modifications of model compounds of methylated and non methylated oligonucleotides, isolated DNA (calf-thymus DNA) and F98 cultured cell by gamma radiation. In addition, we identified a series of modifications of the 2-deoxyribose moiety of DNA arising from the exposure of isolated and cellular DNA to ionizing radiation. We also studied one electron oxidation of cellular DNA in cultured human HeLa cells initiated by intense nanosecond 266 nm laser pulse irradiation, which produces cross-links between guanine and thymine bases (G*-T*). To achieve these goals, we developed several methods based on mass spectrometry to analyze base modifications in isolated DNA and cellular DNA.
Resumo:
Résumé : Les télomères sont des structures nucléoprotéiques spécialisées qui assurent la stabilité du génome en protégeant les extrémités chromosomiques. Afin d’empêcher des activités indésirables, la réparation des dommages à l’ADN doit être convenablement régulée au niveau des télomères. Pourtant, il existe peu d’études de la réparation des dommages induits par les ultraviolets (UVs) dans un contexte télomérique. Le mécanisme de réparation par excision de nucléotides (NER pour « Nucleotide Excision Repair ») permet d’éliminer les photoproduits. La NER est un mécanisme très bien conservé de la levure à l’humain. Elle est divisée en deux sous voies : une réparation globale du génome (GG-NER) et une réparation couplée à la transcription (TC-NER) plus rapide et plus efficace. Dans notre modèle d’étude, la levure Saccharomyces cerevisiae, une forme compactée de la chromatine nommée plus fréquemment « hétérochromatine » a été décrite. Cette structure particulière est présente entre autres, au niveau des régions sous-télomériques des extrémités chromosomiques. La formation de cette chromatine particulière implique quatre protéines nommées Sir (« Silent Information Regulator »). Elle présente différentes marques épigénétiques dont l’effet est de réprimer la transcription. L’accès aux dommages par la machinerie de réparation est-il limité par cette chromatine compacte ? Nous avons donc étudié la réparation des lésions induites par les UVs dans différentes régions associées aux télomères, en absence ou en présence de protéines Sir. Nos données ont démontré une modulation de la NER par la chromatine, dépendante des nucléosomes stabilisés par les Sir, dans les régions sous-télomériques. La NER était moins efficace dans les extrémités chromosomiques que dans les régions plus proches du centromère. Cet effet était dépendant du complexe YKu de la coiffe télomérique, mais pas dépendant des protéines Sir. La transcription télomériques pourrait aider la réparation des photoproduits, par l’intermédiaire de la sous-voie de TC-NER, prévenant ainsi la formation de mutations dans les extrémités chromosomiques. Des ARN non codants nommés TERRA sont produits mais leur rôle n’est pas encore clair. Par nos analyses, nous avons confirmé que la transcription des TERRA faciliterait la NER dans les différentes régions sous-télomériques.
Resumo:
La réalisation de l’évaluation environnementale, en France, est encouragée par l’existence de règlements, lois, directives et normes Européennes (notamment la Directive 2001/42/CE du Parlement européen et du Conseil du 27 juin 2001 relative à l'évaluation des incidences de certains plans et programmes sur l'environnement et la Loi n° 2015-992 du 17 août 2015 relative à la transition énergétique pour la croissance verte). La compréhension du cadre Drivers – Pressures – State – Impacts – Responses permet de replacer les différentes méthodologies dans un cadre conceptuel plus large. Les méthodes d’analyse de flux de matières (Pressures) et d’analyse de cycle de vie (Impacts) sont les deux familles d’évaluation environnementale considérées dans ce travail. C’est plus précisément l’analyse de flux de matières selon Eurostat et l’analyse de cycle de vie territoriale qui ont été appliquées au territoire métropolitain d’Aix-Marseille-Provence. Un état de l’art relevant les études dans lesquelles sont réalisées des analyses de flux de matières a pu montrer que cette famille de méthodes informe sur le métabolisme des territoires à partir de différents types de flux. L’importance des flux indirects et des ressources minérales dans les métabolismes a ainsi été démontrée. Du côté des études analysant les cycles de vie sur les territoires, comme c’est le cas dans l’analyse de cycle de vie territoriale, la distinction faite entre les impacts et dommages, directs ou globaux, permet d’offrir des recommandations ciblées, améliorant la qualité de vie des citoyens. La mise en œuvre de ces deux méthodes sur le territoire métropolitain a mis en évidence l’importance dominante des flux indirects liés aux importations et exportations que génèrent les activités du territoire, elles-mêmes fortement influencées par la présence du port de Marseille-Fos. L’activité pétrochimique, qui caractérise elle aussi la métropole, est une grande consommatrice de combustibles fossiles, ce qui se reflète dans les volumes de flux calculés et leurs impacts associés. Les deux méthodologies s’avèrent complémentaires, chacune ayant ses forces et faiblesses respectives. Pour l’analyse de cycle de vie, la pensée cycle de vie et la prise en compte de la qualité de la matière, d’une part, et la facilité d’application et la marge d’erreur réduite de l’analyse de flux de matières, d’autre part, en plus de leurs résultats complémentaires, justifient un usage hybride pour la prise d’actions ciblées. En effet, la collecte commune des données rend intéressante leur exploitation et l’interprétation croisée de leurs résultats.
Resumo:
Le marché de l'énergie distribuée est actuellement en pleine expansion et favorise l'intégration d'une multitude de sources d'énergie, et les machines à combustion interne ne sont pas exclues. Les moteurs à piston sont actuellement les principaux acteurs du marché, en raison de leur rendement élevé et de leur faible coût en capital. Cependant, la réglementation de plus en plus sévère sur les émissions ainsi que les coûts liés à la maintenance et les temps d'arrêt sont prohibitifs pour ce type de machines, en particulier dans le segment de basse puissance et de production d’énergie et de chaleur combinées (CHP). C'est là que les microturbines opérant sous le cycle récupéré – de petites turbines à gaz qui produisent moins de 1 MW de puissance – ont un avantage concurrentiel, grâce à moins de pièces en mouvement, une combustion plus propre et une température élevée d'échappement. Les petites turbomachines récupérées doivent atteindre des températures d'entrée de turbine (TIT) très élevées, requises pour atteindre 40% de rendement thermique. Les céramiques non refroidies offrent une solution très attrayante, avec plusieurs essais mais des résultats peu concluants dans la littérature. Ce travail présente une nouvelle architecture qui prend en charge des pales en céramique monolithique dans un environnement d’opération à chaud. La turbine renversée en céramique (ICT) est constituée d'un moyeu métallique flexible qui fournit une base souple pour les pales individuelles en céramique qui sont supportées par l'extérieur par un anneau en composite carbone-polymère. Les forces centrifuges chargent les pales en compression au lieu d’en tension, exploitant ainsi la résistance en compression typiquement élevée des céramiques techniques. Le document présente la validation expérimentale entreprise pour vérifier l'intégrité structurelle d’un prototype de configuration ICT à petite échelle, dans des conditions de fonctionnement à froid et à chaud, ainsi que les étapes qui y ont mené. Les résultats expérimentaux montrent que l'ICT supporte des pales en alumine dans les tests à froid et le nitrure de silicium pour des températures d'entrée du rotor jusqu'à 1000 K, avec des vitesses de pointe de pale atteignant 271 m/s. L’incursion d’objet domestique, l'événement le plus désastreux à se produire dans les turbines en céramique dans la littérature, n'a pas causé de dommages aux pales dans cette configuration. Ces résultats indiquent que l'architecture ICT est robuste et viable, et que le développement peut être poursuivi pour augmenter la TIT et la vitesse de pointe de la turbine, afin d’éventuellement parvenir à une microturbine récupérée en céramique de 1600 K de TIT.
Resumo:
Depuis environ 40 ans, l’intensification des pratiques agricoles a grandement transformé le paysage agricole et ce tant, dans les Amériques qu’en Europe. Quoique, plusieurs espèces animales soient affectées négativement par ces changements, certaines espèces en bénéficient. C’est le cas de la Grande Oie des neiges (Chen caerulescens atlantica) qui a vu sa population croître de façon importante et ce, au point de devenir problématique. De fait, la Grande Oie des neiges cause des dommages importants aux cultures du Québec (1 646 229 ± 800 000 par an entre 2009 et 2015) et aux écosystèmes qu’elle utilise lorsqu’elle fait halte dans la vallée du Saint-Laurent, Québec, Canada. Bien que plusieurs actions aient été tentées pour contrôler sa population le problème persiste. La quête alimentaire des animaux est entre autres modulée par les comportements anti-prédateurs, tels que le temps passé en vigilance et une utilisation différentielle des habitats. Ces comportements sont à leur tour affectés par le risque de prédation et la vie en groupe. En effet, le risque de prédation perçu par un individu dépend entre autres (1) de la taille du groupe auquel il appartient ; (2) de la densité et de l’activité des proies et des prédateurs dans l’environnement ; (3) de son niveau de connaissance de l’environnement ; et (4) des caractéristiques du paysage qu’il occupe. Il s’ensuit que le risque de prédation varie dans l’espace et dans le temps. La représentation cartographique de ce risque à un moment donné consiste en un paysage de la peur, où chaque location ou chaque élément d’un paysage se voit associé un risque de prédation. On s’attend donc à ce que la quête alimentaire des individus, tant dans leur utilisation des habitats que dans leur budget d’activité, soit affectée par la structure du paysage de la peur. Par conséquent, on peut se demander si le paysage de la peur peut être utilisé comme outil de gestion d’une espèce, notamment pour la Grande Oie des neiges. Mon objectif est de quantifier comment la perception du risque de prédation par la Grande Oie des neiges varie en fonction de différents éléments des paysages agricoles visités par les oies, mais aussi de quantifier cette variation selon différentes contraintes énergétiques et temporelles durant leurs haltes migratoires. Ceci afin de voir si le paysage de la peur pourrait être utiliser comme outil de gestion. À ce titre, je vise à mesurer l’effet du type de cultures, de la nature de l’élément paysager, de la distance de celui-ci et du niveau de compétition intraspécifique au sein des sites d’alimentation et ce, durant les deux migrations, sur l’utilisation des habitats et le budget d’activité des oies. Je pose que les oies prendront plus de risques si les contraintes temporelles sont fortes, de même que si elles se nourrissent dans une parcelle alimentaire de haute qualité et si elles subissent une plus forte de compétition. Pour ce faire, j’ai parcouru les Basses-Terres-du-Saint-Laurent de Salaberry-de-Valleyfield jusqu’à l’Islet lors des printemps 2014 et 2015 et de l’automne 2014. J’ai ainsi repéré et observé 141 groupes d’oies exploitant des terres agricoles pour lesquels j’ai noté la position des individus dans les champs et mesuré leur taux de vigilance, de même que noté divers facteurs qui pourraient affecter ces deux comportements, dont le type de cultures exploitées et le fait d’être ou non au sein d’une zone où la chasse est permise. Au printemps, le taux de vigilance des oies était, plus élevé dans les cultures de maïs, plus bas si la densité locale d’oies augmentait et plus bas dans les sanctuaires (i.e., en absence de chasse). Alors qu’à l’automne, le taux de vigilance était, plus élevé à proximité d’une route ou d’un fossé et plus élevé en bordure du groupe. Au printemps, la distance aux éléments du paysage potentiellement dangereux était, plus grande face à une bordure de forêt et plus faible face à la route. La distance était plus petite dans les cultures de maïs, plus élevée dans le foin et plus faible dans les sanctuaires. À l’automne, les effets des différents éléments étaient semblables à ceux du printemps. La distance était plus grande si la taille du groupe augmentait et plus petite dans les sanctuaires. De plus, les oies semblaient montrer un évitement des bordures forestières alors que les autres éléments du paysage étudiés ne semblent pas être sélectionnés ou évités. Les oies subissent des contraintes différentes au printemps et à l’automne. Ces contraintes semblent moduler la prise en compte du risque de prédation entre les saisons. En effet, les oies semblent privilégier l’alimentation au détriment de la prise de risques au printemps, une décision probablement liée à la reproduction dont le succès dépend d’une arrivée relativement hâtive sur les aires de nidification arctiques et donc, des réserves énergétiques accumulées sur les haltes migratoires. En opposition, les oies semblent prendre davantage conscience du risque de prédation dans leur quête alimentaire à l’automne, ce qui pourrait être lié au fait qu’elles sont accompagnées de leurs jeunes et à une contrainte énergétique et temporelle plus faible qu’au printemps. En bref, les oies semblent subir les effets de la peur reliée à la chasse. Mes résultats semblent indiquer que le paysage de la peur pourrait être utilisé dans les stratégies de gestion. Par exemple, en instaurant des haies brise-vent dans les secteurs où le risque de dommages agricoles est élevé, le risque de prédation perçu par les oies y serait plus élevé et pourrait ainsi diminuer l’utilisation de ces secteurs.
Resumo:
Les méthodes de gestion des matières résiduelles ne cessent d’évoluer. Dans la société actuelle, les quantités de matières résiduelles augmentent et elles sont de plus en plus diversifiées. Dans une optique de préserver la qualité de l’environnement, l’implantation de différentes démarches se voit nécessaire afin de mieux gérer, disposer, encadrer et financer la gestion de certaines catégories de matière. La responsabilité élargie des producteurs est un instrument de politique environnementale utilisé par les gouvernements afin de transférer la gestion de certains produits difficilement récupérables aux producteurs qui les mettent sur le marché. Cet essai porte sur l’élaboration d’un programme de responsabilité élargie des producteurs pour une catégorie de produits bien spécifique soit, les produits issus du secteur pharmaceutique comme les médicaments hors d’usage et les équipements médicaux. Ces produits peuvent causer des dommages à l’environnement, mais aussi à la population si leur mode de récupération n’est pas encadré de façon responsable. Actuellement, au Québec, il n’y a pas de règlementation spécifique pour encadrer la collecte de cette catégorie de matière. Les frais de récupération et de disposition sont assumés par les pharmaciens, via leurs obligations déontologiques ou bien par les municipalités. De plus, il est démontré qu’une mauvaise gestion des médicaments résiduels par la population engendre certaines problématiques notamment au niveau de la contamination de l’environnement et de la dépendance aux drogues. L’élaboration d’un programme de responsabilité élargie des producteurs pour cette catégorie de matière se voit donc pertinente. Pour y arriver, le Québec doit ajouter cette catégorie de produits au règlement-cadre touchant la responsabilité élargie des producteurs. Par la suite, les producteurs devront agir de façon collective, par l’entremise d’une association, afin de respecter leurs obligations législatives. Ensuite, les pharmacies seront définies comme étant les points de dépôt dans le programme. De plus, la gestion et la disposition des matières doivent respecter la hiérarchie des 3RV. Par ailleurs, un programme de responsabilité élargie des producteurs doit encourager les producteurs à concevoir leurs produits de façon plus écologique. Finalement, le programme doit être performant et doit contenir des moyens pour valider cette performance. Le succès d’un programme se traduit par la facilité du mode de collecte, par l’implication des différents acteurs ainsi que par la sensibilisation de la population à l’adhésion d’un programme de responsabilité élargie des producteurs pour les produits du secteur pharmaceutique.