731 resultados para Génie chimique
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maître en droit (LL.M)"
Resumo:
Scientifiques, gouvernements, entreprises et consommateurs s’entendent aujourd’hui pour dire que le système naturel est déréglé, que l’activité industrielle en est la cause principale. L’éco-conception est une manière de concevoir des biens ou des services en diminuant leurs impacts sur l’environnement et la société. De plus en plus présente dans les grandes entreprises où, associée à une gestion intégrée de l’environnement, elle procure des bénéfices non négligeables et une image de marque, l’éco-conception a beaucoup de difficultés à s’implanter dans les petites et moyennes entreprises. Dans ce travail, nous avons cherché à comprendre les raisons de ces difficultés. Deux approches ont été utilisées, l’une basée sur une analyse documentaire des rapports de RSE de dix entreprises, grandes et petites, de différents secteurs d’activité, qui nous a permis de fixer le cadre et le formalisme de la démarche de recherche, l’autre sur le principe d’entretiens semi-dirigés à partir de questions ciblées. Après une présentation générale de ce qu’est l’éco-conception et quelle en est la problématique appliquée aux PME (chapitre 2), nous précisons le cadre méthodologique de la recherche (chapitre 3) et exposons ses résultats (chapitre 4). Nous montrons que les freins à l’adoption de l’éco-conception dans les PME sont multiples et complexes, tant la diversité de ces entreprises est grande et difficile à synthétiser. En soulignant les freins, les leviers, les risques et les opportunités liés à l’intégration des principes de développement durable dans ces entreprises, nous faisons un portrait global de la situation actuelle et des difficultés rencontrées par ces PME pour adhérer à ces principes.
Resumo:
Dans le cadre de la recherche d’appui à la phase III du projet huile de palme rouge (HPR) au Burkina Faso, une étude de base a porté sur 150 femmes de la zone de production échantillonnées par la méthode aléatoire géographique. Leur statut en vitamine A (VA) a été évalué par HPLC et leurs apports alimentaires par un questionnaire de fréquence de consommation. Les connaissances, les perceptions, les habitudes d’utilisation et de consommation de l’HPR ont été explorées par un questionnaire pré-testé administré au domicile des participantes. Une étude comparative sur la qualité nutritionnelle, physico-chimique, microbiologique et sensorielle de 13 échantillons d’HPR de différentes provenances a été également réalisée. La prévalence de faibles rétinolémies était de 10,7% et les apports en VA provenaient à 90% des aliments d’origine végétale. Seules 5,9% des femmes productrices présentaient une faible rétinolémie, comparativement à 20,8% des femmes non-productrices d’HPR. Les échantillons d’HPR présentaient un profil satisfaisant mais quelques-uns étaient limites au plan microbiologique. En outre, aucun échantillon ne se distinguait nettement selon tous les paramètres de qualité étudiés. Cette étude démontre que les aliments d’origine végétale riches en caroténoïdes provitaminiques A, dont l’HPR qui en est la meilleure source, peuvent permettre d’avoir un statut adéquat en VA. Les risques de contamination de l’HPR au stade de la vente au détail impliquent une sensibilisation et une formation aux pratiques exemplaires de manipulation. Mots clés : Huile de palme rouge, vitamine A, diversification alimentaire, qualité, Burkina Faso.
Resumo:
Associée à d'autres techniques observationnelles, la polarimétrie dans le visible ou dans le proche infrarouge permet d'étudier la morphologie des champs magnétiques à la périphérie de nombreuses régions de formation stellaire. A l'intérieur des nuages molécualires la morphologie des champs est connue par polarimétrie submillimétrique, mais rarement pour les mêmes régions. Habituellement, il manque une échelle spatiale intermédiaire pour pouvoir comparer correctement la morphologie du champ magnétique galactique avec celle située à l'intérieur des nuages moléculaires. -- Cette thèse propose les moyens nécessaires pour réaliser ce type d'analyse multi-échelle afin de mieux comprendre le rôle que peuvent jouer les champs magnétiques dans les processus de formation stellaire. La première analyse traite de la région GF 9. Vient ensuite une étude de la morphologie du champ magnétique dans les filaments OMC-2 et OMC-3 suivie d'une analyse multi-échelle dans le complexe de nuages moléculaires Orion A dont OMC-2 et OMC-3 font partie. -- La synthèse des résultats couvrant GF 9 et Orion A est la suivante. Les approches statistiques employées montrent qu'aux grandes échelles spatiales la morphologie des champs magnétiques est poloïdale dans la région GF 9, et probablement hélicoïdale dans la région Orion A. A l'échelle spatiale des enveloppes des nuages moléculaires, les champs magnétiques apparaissent alignés avec les champs situés à leur périphérie. A l'échelle spatiale des coeurs, le champ magnétique poloïdal environnant la région GF 9 est apparemment entraîné par le coeur en rotation, et la diffusion ambipolaire n'y semble pas effective actuellement. Dans Orion A, la morphologie des champs est difficilement détectable dans les sites actifs de formation d'OMC-2, ou bien très fortement contrainte par les effets de la gravité dans OMC-1. Des effets probables de la turbulence ne seont détectés dans aucune des régions observées. -- Les analyses multi-échelles suggèrent donc qu'indépendamment du stade évolutif et de la gamme de masse des régions de formation stellaires, le champ magnétique galactique subit des modifications de sa morphologie aux échelles spatiales comparables à celles des coeurs protostellaires, de la même façon que les propriétés structurelles des nuages moléculaires suivent des lois d'autosimilarité jusqu'à des échelles comparables à celles des coeurs.
Resumo:
Social Sciences and Humanities Research CouncilHomerton College, Cambridge, U.K.
Resumo:
Social Sciences and Humanities Research Council
Resumo:
L’intérêt marqué porté actuellement aux recherches NBIC (nano-bio-info-cognitivo technologies) visant l’optimisation des capacités humaines augure d’un profond bouleversement dans nos représentations du corps humain et du rapport humain-machine. Tour à tour, des travaux issus des domaines du génie génétique, de la pharmacologie, des biotechnologies ou des nanotechnologies nous promettent un corps moins sujet à la maladie, mieux « adapté » et surtout plus malléable. Cette construction en laboratoire d’un corps amélioré fait amplement écho aux préoccupations contemporaines concernant la santé parfaite, le processus de vieillissement, l’inaptitude, l’apparence, la performance, etc. En vue d’analyser les transformations qu’induisent ces recherches sur les représentations du corps, nous avons construit un modèle théorique appuyé, d’une part, sur des travaux en sociologie du corps et, d’autre part, sur des travaux en épistémologie des sciences. Puis, en scrutant différents textes de vulgarisation scientifique produits par des chercheurs transhumanistes – militant ouvertement en faveur d’une optimisation radicale des capacités humaines par le biais des technosciences –, il a été observé que les représentations du corps s’organisent autour de trois principaux noyaux. Le corps humain est présenté, dans ce discours, comme étant à la fois informationnel, technologiquement perfectible et obsolète. Cette représentation tripartite du corps permet aux transhumanistes d’ériger leur modèle d’action (i.e. amélioration des capacités physiques, intellectuelles, sensitives, émotionnelles, etc.) à titre de nécessité anthropologique. À leurs yeux, l’amélioration des conditions humaines doit passer par une mutation contrôlée de la biologie (i.e. une hybridation avec la machine) du fait que le corps serait « inadapté » au monde contemporain. Ainsi, les promesses NBIC, une fois récupérées par les chercheurs transhumanistes, se voient exacerbées et prennent une tonalité péremptoire. Ceci contribue vivement à la promotion du posthumain ou du cyborg, soit d’un individu transformé dans l’optique d’être plus robuste et intelligent, de moduler sa sensitivité et ses états émotifs et de vivre plus longtemps, voire indéfiniment. Enfin, situé à mi-chemin entre la science et la science-fiction, ce projet est qualifié de techno-prophétie en ce qu’il produit d’innombrables prévisions basées sur les avancées technoscientifiques actuelles et potentielles. Afin d’accroître l’acceptabilité sociale de leur modèle d’action, les transhumanistes ne font pas uniquement appel à la (potentielle) faisabilité technique; ils s’appuient également sur des valeurs socialement partagées, telles que l’autodétermination, la perfectibilité humaine, l’égalité, la liberté ou la dignité. Néanmoins, la lecture qu’ils en font est parfois surprenante et rompt très souvent avec les conceptions issues de la modernité. À leur avis, le perfectionnement humain doit s’opérer par le biais des technosciences (non des institutions sociales), sur le corps même des individus (non sur l’environnement) et en vertu de leur « droit » à l’autodétermination compris comme un droit individuel d’optimiser ses capacités. De même, les technosciences doivent, disent-ils, être démocratisées afin d’en garantir l’accessibilité, de réduire les inégalités biologiques et de permettre à chacun de renforcer son sentiment d’identité et d’accomplissement. L’analyse du discours transhumaniste nous a donc permis d’observer leurs représentations du corps de même que la résonance culturelle du projet qu’ils proposent.
Resumo:
De nombreuses études ont établi que la majorité des neurones libèrent plus qu’une substance chimique. Il est bien connu que les neurones peuvent co-exprimer et co-libérer des neuropeptides en plus de leur neurotransmetteur, mais des évidences de la co-libération de deux petits neurotransmetteurs à action rapide se sont accumulées récemment. Des enregistrements électrophysiologiques ont aussi montré que des neurones sérotoninergiques et dopaminergiques isolés peuvent libérer du glutamate quand ils sont placés en culture. De plus, la présence de glutamate et de glutaminase a été détectée dans des neurones sérotoninergiques, dopaminergiques et noradrénergiques par immunomarquage sur des tranches de cerveau. Malheureusement, en considérant le rôle métabolique du glutamate, sa détection immunologique n’est pas suffisante pour assurer le phénotype glutamatergique d’un neurone. Récemment, la découverte de trois transporteurs vésiculaires du glutamate (VGLUT1-3) a grandement facilité l’identification des neurones glutamatergiques. Ces transporteurs sont nécessaires pour la libération de glutamate et constituent les premiers marqueurs morphologiques du phénotype glutamatergique. Il a été démontré que des neurones noradrénergiques expriment VGLUT2 et que des neurones sérotoninergiques expriment VGLUT3. Mais aucune évidence d’expression d’un des sous-types de VGLUT n’a été reportée pour les neurones dopaminergiques. Le but de notre travail était d’identifier quel sous-type de VGLUT est exprimé par les neurones dopaminergiques mésencéphaliques, et de déterminer si le phénotype glutamatergique de ces neurones peut être modulé dans des conditions particulières. Premièrement, nous avons utilisé des microcultures pour isoler les neurones dopaminergiques et des doubles marquages immunocytochimiques pour observer l’expression de VGLUT dans les neurones positifs pour la tyrosine hydroxylase (TH). Nous avons montré que la majorité (80%) des neurones TH+ isolés exprime spécifiquement VGLUT2. Cette expression est précoce au cours du développement in vitro et limitée aux projections axonales des neurones dopaminergiques. Toutefois, cette forte expression in vitro contraste avec la non-détection de ce transporteur dans les rats adultes in vivo. Nous avons décidé ensuite de regarder si l’expression de VGLUT2 pouvait être régulée pendant le développement cérébral de jeunes rats et sous des conditions traumatiques, par double hybridation in situ. Entre 14 et 16 jours embryonnaires, les marquages de VGLUT2 et de TH montraient une superposition significative qui n’était pas retrouvée à des stades ultérieurs. Dans le mésencéphale de jeunes rats postnataux, nous avons détecté l’ARNm de VGLUT2 dans environs 1-2% des neurones exprimant l’ARNm de TH dans la substance noire et l’aire tegmentaire ventrale (ATV). Pour explorer la régulation de l’expression de VGLUT2 dans des conditions traumatiques, nous avons utilisé la 6-hydroxydopamine (6-OHDA) pour léser les neurones dopaminergiques dans les jeunes rats. Dix jours après la chirurgie, nous avons trouvé que 27% des neurones dopaminergiques survivants dans l’ATV exprimaient l’ARNm de VGLUT2 dans les rats 6-OHDA. Finalement, nous avons observé la colocalisation de la protéine VGLUT2 dans les terminaisons TH positives par microscopie électronique. Dans les rats normaux, la protéine VGLUT2 est retrouvée dans 28% des terminaisons axonales TH dans le noyau accumbens. Dans les rats lésés à la 6-OHDA, nous avons observé une diminution considérable des terminaisons TH positives, et une augmentation dans la proportion (37%) des terminaisons dopaminergiques présentant du VGLUT2. Nos résultats suggèrent que le phénotype glutamatergique des neurones dopaminergiques est régulé au cours du développement, peut être réactivé dans des états pathologiques, et que ces neurones peuvent libérer du glutamate dans conditions spécifiques.
Resumo:
L'acide désoxyribonucléique (ADN) et l'acide ribonucléique (ARN) sont des polymères de nucléotides essentiels à la cellule. À l'inverse de l'ADN qui sert principalement à stocker l'information génétique, les ARN sont impliqués dans plusieurs processus métaboliques. Par exemple, ils transmettent l’information génétique codée dans l’ADN. Ils sont essentiels pour la maturation des autres ARN, la régulation de l’expression génétique, la prévention de la dégradation des chromosomes et le ciblage des protéines dans la cellule. La polyvalence fonctionnelle de l'ARN résulte de sa plus grande diversité structurale. Notre laboratoire a développé MC-Fold, un algorithme pour prédire la structure des ARN qu'on représente avec des graphes d'interactions inter-nucléotidiques. Les sommets de ces graphes représentent les nucléotides et les arêtes leurs interactions. Notre laboratoire a aussi observé qu'un petit ensemble de cycles d'interactions à lui seul définit la structure de n'importe quel motif d'ARN. La formation de ces cycles dépend de la séquence de nucléotides et MC-Fold détermine les cycles les plus probables étant donnée cette séquence. Mon projet de maîtrise a été, dans un premier temps, de définir une base de données des motifs structuraux et fonctionnels d'ARN, bdMotifs, en terme de ces cycles. Par la suite, j’ai implanté un algorithme, MC-Motifs, qui recherche ces motifs dans des graphes d'interactions et, entre autres, ceux générés par MC-Fold. Finalement, j’ai validé mon algorithme sur des ARN dont la structure est connue, tels que les ARN ribosomaux (ARNr) 5S, 16S et 23S, et l'ARN utilisé pour prédire la structure des riborégulateurs. Le mémoire est divisé en cinq chapitres. Le premier chapitre présente la structure chimique, les fonctions cellulaires de l'ARN et le repliement structural du polymère. Dans le deuxième chapitre, je décris la base de données bdMotifs. Dans le troisième chapitre, l’algorithme de recherche MC-Motifs est introduit. Le quatrième chapitre présente les résultats de la validation et des prédictions. Finalement, le dernier chapitre porte sur la discussion des résultats suivis d’une conclusion sur le travail.
Resumo:
Les agents anti-infectieux sont utilisés pour traiter ou prévenir les infections chez les humains, les animaux, les insectes et les plantes. L’apparition de traces de ces substances dans les eaux usées, les eaux naturelles et même l’eau potable dans plusieurs pays du monde soulève l’inquiétude de la communauté scientifique surtout à cause de leur activité biologique. Le but de ces travaux de recherche a été d’étudier la présence d’anti-infectieux dans les eaux environnementales contaminées (c.-à-d. eaux usées, eaux naturelles et eau potable) ainsi que de développer de nouvelles méthodes analytiques capables de quantifier et confirmer leur présence dans ces matrices. Une méta-analyse sur l’occurrence des anti-infectieux dans les eaux environnementales contaminées a démontré qu’au moins 68 composés et 10 de leurs produits de transformation ont été quantifiés à ce jour. Les concentrations environnementales varient entre 0.1 ng/L et 1 mg/L, selon le composé, la matrice et la source de contamination. D’après cette étude, les effets nuisibles des anti-infectieux sur le biote aquatique sont possibles et ces substances peuvent aussi avoir un effet indirect sur la santé humaine à cause de sa possible contribution à la dissémination de la résistance aux anti-infecteiux chez les bactéries. Les premiers tests préliminaires de développement d’une méthode de détermination des anti-infectieux dans les eaux usées ont montré les difficultés à surmonter lors de l’extraction sur phase solide (SPE) ainsi que l’importance de la sélectivité du détecteur. On a décrit une nouvelle méthode de quantification des anti-infectieux utilisant la SPE en tandem dans le mode manuel et la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). Les six anti-infectieux ciblés (sulfaméthoxazole, triméthoprime, ciprofloxacin, levofloxacin, clarithromycin et azithromycin) ont été quantifiés à des concentrations entre 39 et 276 ng/L dans les échantillons d’affluent et d’effluent provenant d’une station d’épuration appliquant un traitement primaire et physico- chimique. Les concentrations retrouvées dans les effluents indiquent que la masse moyenne totale de ces substances, déversées hebdomadairement dans le fleuve St. Laurent, était de ~ 2 kg. En vue de réduire le temps total d’analyse et simplifier les manipulations, on a travaillé sur une nouvelle méthode de SPE couplée-LC-MS/MS. Cette méthode a utilisé une technique de permutation de colonnes pour préconcentrer 1.00 mL d’échantillon dans une colonne de SPE couplée. La performance analytique de la méthode a permis la quantification des six anti-infectieux dans les eaux usées municipales et les limites de détection étaient du même ordre de grandeur (13-60 ng/L) que les méthodes basées sur la SPE manuelle. Ensuite, l’application des colonnes de SPE couplée de chromatographie à débit turbulent pour la préconcentration de six anti-infectieux dans les eaux usées a été explorée pour diminuer les effets de matrice. Les résultats obtenus ont indiqué que ces colonnes sont une solution de réchange intéressante aux colonnes de SPE couplée traditionnelles. Finalement, en vue de permettre l’analyse des anti-infectieux dans les eaux de surface et l’eau potable, une méthode SPE couplée-LC-MS/MS utilisant des injections de grand volume (10 mL) a été développée. Le volume de fuite de plusieurs colonnes de SPE couplée a été estimé et la colonne ayant la meilleure rétention a été choisie. Les limites de détection et de confirmation de la méthode ont été entre 1 à 6 ng/L. L’analyse des échantillons réels a démontré que la concentration des trois anti-infectieux ciblés (sulfaméthoxazole, triméthoprime et clarithromycine) était au dessous de la limite de détection de la méthode. La mesure des masses exactes par spectrométrie de masse à temps d’envol et les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle ont été explorés comme des méthodes de confirmation possibles.
Resumo:
La réalisation de dispositifs à des dimensions sous-micrométriques et nanométriques demande une maîtrise parfaite des procédés de fabrication, notamment ceux de gravure. La réalisation des ces dispositifs est complexe et les exigences en termes de qualité et de géométrie des profils de gravure imposent de choisir les conditions opératoires les mieux adaptées. Les simulations de l'évolution spatio-temporelle des profils de gravure que nous proposons dans cette thèse s'inscrivent parfaitement dans ce contexte. Le simulateur que nous avons réalisé offre la possibilité de mieux comprendre les processus qui entrent en jeu lors de la gravure par plasma de profils dans divers matériaux. Il permet de tester l'influence des paramètres du plasma sur la forme du profil et donc de déterminer les conditions opératoires optimales. La mise au point de ce simulateur s'appuie sur les concepts fondamentaux qui gouvernent la gravure par plasma. À partir de l'état des lieux des différentes approches numériques pouvant être utilisées, nous avons élaboré un algorithme stable et adaptable permettant de mettre en évidence l'importance de certains paramètres clés pour la réalisation de profils de gravure par un plasma à haute densité et à basse pression. Les capacités de cet algorithme ont été testées en étudiant d'une part la pulvérisation de Si dans un plasma d'argon et d'autre part, la gravure chimique assistée par les ions de SiO2/Si dans un plasma de chlore. Grâce aux comparaisons entre profils simulés et expérimentaux, nous avons montré l'importance du choix de certains paramètres, comme la nature du gaz utilisé et la pression du plasma, la forme initiale du masque, la sélectivité masque/matériau, le rapport de flux neutre/ion, etc. Nous avons aussi lié ces paramètres à la formation de défauts dans les profils, par exemple celle de facettes sur le masque, de parois concaves, et de micro-tranchées. Enfin, nous avons montré que le phénomène de redépôt des atomes pulvérisés entre en compétition avec la charge électrique de surface pour expliquer la formation de profils en V dans le Pt pulvérisé par un plasma d'argon.
Resumo:
Peu importe la discipline qui l’appréhende, de la médecine humorale à la psychanalyse aujourd’hui, de l’histoire de l’art à la philosophie, la mélancolie se définit par un manque. S’il ne succombe pas à l’apathie, le mélancolique s’efforcera de pallier cette insuffisance par ses activités intellectuelles et artistiques : la mélancolie est carence et génie. La mélancolie travaille : elle compose avec l’absence. De quel ordre est ce manque ? Dans les écrits savants et les œuvres visuelles, la mélancolie a l’image en défaut : un souvenir ou une représentation juste, idéale. La mélancolie ne donne rien à voir sinon ce rapport à l’image, ce travail de mise en ordre et de mise en œuvre que l’on résume sous les noms « intellection » et « création ». La mélancolie est formaliste : elle cherche un modèle, une représentation, un nom, la forme d’une narration. Peu d’œuvres se prêtent à l’étude du génie de la mélancolie comme celle de Roland Barthes (1915-1980). Critique, ce corpus questionne la mélancolie de la forme et du sens. Écrite, cette œuvre donne à lire une figure de la mélancolie qui diffère selon ce qui lui manque. Toujours, la mélancolie compose avec l’absence de l’image. Cache de l’écriture, la photographie a été utilisée comme image du réel et du souvenir. L’image photographique participe d’une quête théorique en même temps qu’elle donne forme à la mélancolie de l’écriture. Avec la photographie, la mélancolie apparaît à la ville (L’empire des signes), au miroir (Roland Barthes par Roland Barthes), en amour (Fragments d’un discours amoureux) et au tombeau (La chambre claire). En figurant ce qui échappe à la littérature, la photographie ordonne autour d’elle une narration mélancolique. Ainsi la fragmentation, la collection, la spécularisation, l’investigation et la formalisation, sont autant d’opérations qui caractérisent la poétique narrative mise en place dans l’œuvre de Roland Barthes. Dans ces opérations, nous voyons également un modèle de la mélancolie du processus de création.
Resumo:
Le diabète insipide néphrogénique (DIN) autosomal peut être causé par les mutations du gène codant pour le canal à eau aquaporine-2 (AQP2). Un modèle couramment utilisé pour l’étude des protéines membranaires telle l’AQP2 est l’expression hétérologue dans les ovocytes de Xenopus laevis. Malheureusement, les techniques déjà existantes de purification de membranes plasmiques sont soit trop longues, trop difficiles ou demandent trop de matériel, ne permettent pas l’analyse adéquate du ciblage des formes sauvage comme mutantes, un élément crucial de ce type d’étude. Nous avons donc dans un premier temps mis au point une technique rapide et efficace de purification de membranes plasmiques qui combine la digestion partielle de la membrane vitelline, sa polymérisation à la membrane plasmique suivi de centrifugations à basse vitesse pour récolter les membranes purifiées. Nous avons utilisé cette technique dans l’étude de deux nouveaux cas familiaux de patients hétérozygotes possédant les mutations V24A et R187C dans un cas et K228E et R187C dans le second cas. Pour chaque mutation, nous avons analysé autant les éléments de fonctionnalité que les paramètres d’expression des protéines mutantes. Les expériences de perméabilité membranaire démontrent que les ovocytes exprimant AQP2-V24A (Pf = 16.3 ± 3.5 x 10-4 cm/s, 10 ng) et AQP2- K228E (Pf = 19.9 ± 7.0 x 10-4 cm/s, 10 ng) ont des activités similaires à celle exprimant la forme native (Pf = 14.4 ± 5.5 x 10-4 cm/s, 1 ng), tandis que AQP2- R187C (Pf = 2.6 ± 0.6 x 10-4 cm/s, 10 ng) ne semble avoir aucune activité comme ce qui est observé chez les ovocytes non-injectés (Pf = 2.8 ± 1.0 x 10-4 cm/s). Les études de co-expression ont démontré un effet d’additivité lorsque AQP2-V24A et -K228E sont injectées avec la forme native et un effet s’apparentant à la dominance négative lorsque AQP2-R187C est injecté avec la forme native, avec AQP2-V24A ou avec –K228E. Les résultats obtenus par immunobuvardage représente bien ce qui a été démontré précédemment, on remarque la présence des mutations K228E, V24A et la forme sauvage à la membrane plasmique, contrairement à la mutation R187C. Cependant, lorsque les mutations sont exprimées dans des cellules mIMCD-3, il n’y a qu’une faible expression à la membrane de la forme –K228E et une absence totale des formes –V24A et –R187C à la membrane plasmique, contrairement à la forme native. Les résultats de nos études démontrent que tout dépendant du système d’expression les formes –K228E et –V24A peuvent être utiles dans l’étude des problèmes d’adressage à la membrane à l’aide de chaperonne chimique. De plus, la forme –R187C démontre des difficultés d’adressage qui devront être étudiées afin de mieux comprendre la synthèse des formes natives.
Resumo:
Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 131–1275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets.
Resumo:
La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.