765 resultados para Quantité d’énergie


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les agents anti-infectieux sont utilisés pour traiter ou prévenir les infections chez les humains, les animaux, les insectes et les plantes. L’apparition de traces de ces substances dans les eaux usées, les eaux naturelles et même l’eau potable dans plusieurs pays du monde soulève l’inquiétude de la communauté scientifique surtout à cause de leur activité biologique. Le but de ces travaux de recherche a été d’étudier la présence d’anti-infectieux dans les eaux environnementales contaminées (c.-à-d. eaux usées, eaux naturelles et eau potable) ainsi que de développer de nouvelles méthodes analytiques capables de quantifier et confirmer leur présence dans ces matrices. Une méta-analyse sur l’occurrence des anti-infectieux dans les eaux environnementales contaminées a démontré qu’au moins 68 composés et 10 de leurs produits de transformation ont été quantifiés à ce jour. Les concentrations environnementales varient entre 0.1 ng/L et 1 mg/L, selon le composé, la matrice et la source de contamination. D’après cette étude, les effets nuisibles des anti-infectieux sur le biote aquatique sont possibles et ces substances peuvent aussi avoir un effet indirect sur la santé humaine à cause de sa possible contribution à la dissémination de la résistance aux anti-infecteiux chez les bactéries. Les premiers tests préliminaires de développement d’une méthode de détermination des anti-infectieux dans les eaux usées ont montré les difficultés à surmonter lors de l’extraction sur phase solide (SPE) ainsi que l’importance de la sélectivité du détecteur. On a décrit une nouvelle méthode de quantification des anti-infectieux utilisant la SPE en tandem dans le mode manuel et la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). Les six anti-infectieux ciblés (sulfaméthoxazole, triméthoprime, ciprofloxacin, levofloxacin, clarithromycin et azithromycin) ont été quantifiés à des concentrations entre 39 et 276 ng/L dans les échantillons d’affluent et d’effluent provenant d’une station d’épuration appliquant un traitement primaire et physico- chimique. Les concentrations retrouvées dans les effluents indiquent que la masse moyenne totale de ces substances, déversées hebdomadairement dans le fleuve St. Laurent, était de ~ 2 kg. En vue de réduire le temps total d’analyse et simplifier les manipulations, on a travaillé sur une nouvelle méthode de SPE couplée-LC-MS/MS. Cette méthode a utilisé une technique de permutation de colonnes pour préconcentrer 1.00 mL d’échantillon dans une colonne de SPE couplée. La performance analytique de la méthode a permis la quantification des six anti-infectieux dans les eaux usées municipales et les limites de détection étaient du même ordre de grandeur (13-60 ng/L) que les méthodes basées sur la SPE manuelle. Ensuite, l’application des colonnes de SPE couplée de chromatographie à débit turbulent pour la préconcentration de six anti-infectieux dans les eaux usées a été explorée pour diminuer les effets de matrice. Les résultats obtenus ont indiqué que ces colonnes sont une solution de réchange intéressante aux colonnes de SPE couplée traditionnelles. Finalement, en vue de permettre l’analyse des anti-infectieux dans les eaux de surface et l’eau potable, une méthode SPE couplée-LC-MS/MS utilisant des injections de grand volume (10 mL) a été développée. Le volume de fuite de plusieurs colonnes de SPE couplée a été estimé et la colonne ayant la meilleure rétention a été choisie. Les limites de détection et de confirmation de la méthode ont été entre 1 à 6 ng/L. L’analyse des échantillons réels a démontré que la concentration des trois anti-infectieux ciblés (sulfaméthoxazole, triméthoprime et clarithromycine) était au dessous de la limite de détection de la méthode. La mesure des masses exactes par spectrométrie de masse à temps d’envol et les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle ont été explorés comme des méthodes de confirmation possibles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La nourriture traditionnelle compose une part essentielle de la culture Inuit. Néanmoins, la contamination de cette nourriture par les organochlorés et les métaux lourds fait l’objet d’une attention toute particulière, car elle excède dans certains cas les recommandations canadiennes. Le but de ce travail est, d’une part de mettre à jour les estimés d’exposition au chlordane, au BPC, au toxaphène et au mercure, et d’autre part d’en explorer certaines sources de variation. Pour ce faire, de nouvelles données sur la concentration de ces contaminants parmi les plus importants aliments traditionnels ont été combinées aux relevés alimentaires assemblés dans l’Arctique canadien en 1998 et 1999, la quantité et le type de nourriture traditionnelle consommés étant supposés ne pas avoir changé. D’après l’ensemble des nouveaux estimés obtenus, les changements dans la banque de données sur les contaminants affectent plus les extrémités des distributions que les mesures de tendance centrale. Les estimés d’apports en organochlorés peuvent être considérés comme toujours actuels étant donné que les cinq types d’aliments pour lesquels il y a des nouvelles données disponibles représentent la majorité de l’exposition totale. En ce qui concerne le mercure, toutefois, des données additionnelles sont nécessaires à propos du caribou, du narval, du muktuk du béluga et de la truite de lac pour générer des niveaux d’exposition plus exacts. Les sources de variations de ces estimés d’exposition ont été explorées en évaluant les coefficients de variation propres aux apports alimentaires et ceux propres aux concentrations de contaminants dans les aliments traditionnels. Il s’avère que la variation attribuable aux méthodes de collecte de données alimentaires est plus élevée que celle attribuable à la mesure des contaminants dans les banques de données. De nouvelles méthodes pour mesurer les niveaux de consommation d’aliments traditionnels devraient être développées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le récepteur mélanocortine de type 4 (MC4R) est un récepteur couplé aux protéines G impliqué dans la régulation de la prise alimentaire et de l’homéostasie énergétique. Quatre-vingt pour cent des mutants du MC4R reliés à l’obésité morbide précoce (OMP) sont retenus à l’intérieur de la cellule. Le système de contrôle de qualité (SCQ) est probablement responsable de cette rétention, par la reconnaissance d’une conformation inadéquate des mutants. Le rétablissement de l’expression à la surface cellulaire et de la fonctionnalité de ces mutants est donc d’intérêt thérapeutique. Dans cette optique, des composés lipophiles spécifiques pour le MC4R ont été sélectionnés sur la base de leur sélectivité. Nous avons démontré qu’ils agissent à titre de chaperone pharmacologique (CP) en rétablissant l’expression à la surface cellulaire et la fonctionnalité des récepteurs mutants S58C et R165W, et qu’ils favorisent leur N-glycosylation complexe (maturation). Le suivi par BRET du site d’action des CP du MC4R suggère une action en aval de l’interaction calnexine-MC4R. De manière générale, une CP peut avoir un effet différent selon le mutant traité en induisant des conformations distinctes du récepteur plus ou moins aptes à se dissocier du SCQ et à activer la voie de signalisation, et un mutant peut répondre différemment selon la CP utilisée par des différences d’affinité pour le ligand, la CP et les effecteurs. Une meilleure compréhension du mode d’action des CP pourrait aider au développement de nouvelles approches thérapeutiques non seulement pour l’OMP, mais aussi pour d’autres maladies conformationnelles causées par le mauvais repliement de protéines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obésité provient d’un déséquilibre de l’homéostasie énergétique, c’est-à-dire une augmentation des apports caloriques et/ou une diminution des dépenses énergétiques. Plusieurs données, autant anatomiques que physiologiques, démontrent que l’hypothalamus est un régulateur critique de l’appétit et des dépenses énergétiques. En particulier, le noyau paraventriculaire (noyau PV) de l’hypothalamus intègre plusieurs signaux provenant du système nerveux central (SNC) et/ou de la périphérie, afin de contrôler l’homéostasie énergétique via des projections axonales sur les neurones pré-ganglionnaires du système autonome situé dans le troc cérébral et la moelle épinière. Plusieurs facteurs de transcription, impliqués dans le développement du noyau PV, ont été identifiés. Le facteur de transcription SIM1, qui est produit par virtuellement tous les neurones du noyau PV, est requis pour le développement du noyau PV. En effet, lors d’une étude antérieure, nous avons montré que le noyau PV ne se développe pas chez les souris homozygotes pour un allèle nul de Sim1. Ces souris meurent à la naissance, probablement à cause des anomalies du noyau PV. Par contre, les souris hétérozygotes survivent, mais développent une obésité précoce. De façon intéressante, le noyau PV des souris Sim1+/- est hypodéveloppé, contenant 24% moins de cellules. Ces données suggèrent fortement que ces anomalies du développement pourraient perturber le fonctionnement du noyau PV et contribuer au développement du phénotype d’obésité. Dans ce contexte, nous avons entrepris des travaux expérimentaux ayant pour but d’étudier l’impact de l’haploinsuffisance de Sim1 sur : 1) le développement du noyau PV et de ses projections neuronales efférentes; 2) l’homéostasie énergétique; et 3) les voies neuronales physiologiques contrôlant l’homéostasie énergétique chez les souris Sim1+/-. A cette fin, nous avons utilisé : 1) des injections stéréotaxiques combinées à des techniques d’immunohistochimie afin de déterminer l’impact de l’haploinsuffisance de Sim1 sur le développement du noyau PV et de ses projections neuronales efférentes; 2) le paradigme des apports caloriques pairés, afin de déterminer l’impact de l’haploinsuffisance de Sim1 sur l’homéostasie énergétique; et 3) une approche pharmacologique, c’est-à-dire l’administration intra- cérébroventriculaire (i.c.v.) et/ou intra-péritonéale (i.p.) de peptides anorexigènes, la mélanotane II (MTII), la leptine et la cholécystokinine (CCK), afin de déterminer l’impact de l’haploinsuffisance de Sim1 sur les voies neuronales contrôlant l’homéostasie énergétique. Dans un premier temps, nous avons constaté une diminution de 61% et de 65% de l’expression de l’ARN messager (ARNm) de l’ocytocine (Ot) et de l’arginine-vasopressine (Vp), respectivement, chez les embryons Sim1+/- de 18.5 jours (E18.5). De plus, le nombre de cellules produisant l’OT et la VP est apparu diminué de 84% et 41%, respectivement, chez les souris Sim1+/- adultes. L’analyse du marquage axonal rétrograde des efférences du noyau PV vers le tronc cérébral, en particulier ses projections sur le noyau tractus solitaire (NTS) aussi que le noyau dorsal moteur du nerf vague (X) (DMV), a permis de démontrer une diminution de 74% de ces efférences. Cependant, la composition moléculaire de ces projections neuronales reste inconnue. Nos résultats indiquent que l’haploinsuffisance de Sim1 : i) perturbe spécifiquement le développement des cellules produisant l’OT et la VP; et ii) abolit le développement d’une portion importante des projections du noyau PV sur le tronc cérébral, et notamment ses projections sur le NTS et le DMV. Ces observations soulèvent donc la possibilité que ces anomalies du développement du noyau PV contribuent au phénotype d’hyperphagie des souris Sim1+/-. En second lieu, nous avons observé que la croissance pondérale des souris Sim1+/- et des souris Sim1+/+ n’était pas significativement différente lorsque la quantité de calories présentée aux souris Sim1+/- était la même que celle consommée par les souris Sim1+/+. De plus, l’analyse qualitative et quantitative des tissus adipeux blancs et des tissus adipeux bruns n’a démontré aucune différence significative en ce qui a trait à la taille et à la masse de ces tissus chez les deux groupes. Finalement, au terme de ces expériences, les souris Sim1+/--pairées n’étaient pas différentes des souris Sim1+/+ en ce qui a trait à leur insulinémie et leur contenu en triglycérides du foie et des masses adipeuses, alors que tous ces paramètres étaient augmentés chez les souris Sim1+/- nourries ad libitum. Ces résultats laissent croire que l’hyperphagie, et non une diminution des dépenses énergétiques, est la cause principale de l’obésité des souris Sim1+/-. Par conséquent, ces résultats suggèrent que : i) l’haploinsuffisance de Sim1 est associée à une augmentation de l’apport calorique sans toutefois moduler les dépenses énergétiques; ii) l’existence d’au moins deux voies neuronales issues du noyau PV : l’une qui régule la prise alimentaire et l’autre la thermogénèse; et iii) l’haploinsuffisance de Sim1 affecte spécifiquement la voie neuronale qui régule la prise alimentaire. En dernier lieu, nous avons montré que l’injection de MTII, de leptine ainsi que de CCK induit une diminution significative de la consommation calorique des souris des deux génotypes, Sim1+/+ et Sim1+/-. De fait, la consommation calorique cumulative des souris Sim1+/- et Sim1+/+ est diminuée de 37% et de 51%, respectivement, durant les 4 heures suivant l’administration i.p. de MTII comparativement à l’administration d’une solution saline. Lors de l’administration i.c.v. de la leptine, la consommation calorique cumulative des souris Sim1+/- et Sim1+/+ est diminuée de 47% et de 32%, respectivement. Finalement, l’injection i.p. de CCK diminue la consommation calorique des souris Sim1+/- et Sim1+/+ de 52% et de 36%, respectivement. L’ensemble des résultats suggère ici que l’haploinsuffisance de Sim1 diminue l’activité de certaines voies neuronales régulant l’homéostasie énergétique, et particulièrement de celles qui contrôlent la prise alimentaire. En résumé, ces travaux ont montré que l’haploinsuffisance de Sim1 affecte plusieurs processus du développement au sein du noyau PV. Ces anomalies du développement peuvent conduire à des dysfonctions de certains processus physiologiques distincts régulés par le noyau PV, et notamment de la prise alimentaire, et contribuer ainsi au phénotype d’obésité. Les souris hétérozygotes pour le gène Sim1 représentent donc un modèle animal unique, où l’hyperphagie, et non les dépenses énergétiques, est la principale cause de l’obésité. En conséquence, ces souris pourraient représenter un modèle expérimental intéressant pour l’étude des mécanismes cellulaires et moléculaires en contrôle de la prise alimentaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Selon le modèle classique, le signal reçu par les récepteurs couplés aux protéines G (RCPG) se propage suite à des interactions transitoires et aléatoires entre les RCPGs, les protéines G et leurs effecteurs. Par les techniques de transfert d’énergie de résonance de bioluminescence (BRET), de complémentation bimoléculaire de protéines fluorescentes (BiFC) et de co-immunoprécipitation, nous avons observé que les récepteurs, les protéines G et les effecteurs forment un complexe stable, avant et après l’activation des récepteurs. L’interaction entre l’effecteur Kir3 et le dimère Gbetagamma se produit initialement au réticulum endoplasmique et est sensible à un agoniste liposoluble des récepteurs beta2-adrénergiques. Bien que peu de spécificité pour les nombreux isoformes des sous-unités Gbetagamma ait été observée pour l’activation du canal Kir3, les interactions précoces au RE sont plus sensibles aux différentes combinaisons de Gbetagamma présentes. En plus de son rôle dans la régulation des effecteurs, le dimère Gbetagamma peut interagir avec de nombreuses protéines possédant des localisations cellulaires autres que la membrane plasmique. Nous avons identifié une nouvelle classe de protéines interagissant avec la sous-unité Gbeta, autant en système de surexpression que dans des extraits de cerveaux de rats, soit les protéines FosB et cFos, qui forment le complexe de transcription AP-1, suite à leur dimérisation avec les protéines de la famille des Jun. La coexpression du dimère Gbetagamma réduit l’activité transcriptionnelle du complexe AP-1 induit par le phorbol 12-,myristate 13-acetate (PMA), sans toutefois interférer avec la formation du complexe Fos/Jun ou son interaction avec l’ADN. Toutefois, le dimère Gbetagamma colocalise au noyau avec le complexe AP-1 et recrute les protéines histones déacétylases (HDAC) afin d’inhiber l’activité transcriptionnelle du complexe AP-1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire tente de présenter la politique allemande de François Mitterrand de 1981 à 1991 à travers le discours public du président français. À cette fin, il présente la position du chef d’État socialiste sur le rôle de l’Allemagne dans la construction de l’unité européenne et dans la politique de défense et de sécurité française, ainsi que sur la question de la réunification allemande. Il tente ensuite de situer la politique allemande de François Mitterrand par rapport à celle du général de Gaulle, et de juger de la valeur du discours public du président français comme source primaire. L’hypothèse principale que nous soutenons est que le président socialiste tente, de 1981 à 1991, de s’appuyer sur la République fédérale d’Allemagne pour atteindre les objectifs de grandeur et d’indépendance fixés pour la France par de Gaulle dans les années 1960. Nous croyons qu’il souhaite d’abord se rapprocher de la RFA pour que celle-ci l’aide à unifier politiquement, économiquement et militairement l’Europe autour du couple franco-allemand. Nous croyons également que Mitterrand veut s’assurer, au début des années 1980, que la RFA restera ancrée solidement au camp occidental et qu’elle ne glissera pas vers le neutralisme, ce qui doit, selon le président français, permettre à la France d’augmenter son niveau de protection face à l’URSS et accroître son indépendance face aux États-Unis. Enfin, nous croyons que le président socialiste ne tente pas d’empêcher la réunification de l’Allemagne, mais qu’il tente d’en ralentir le processus afin de pouvoir mettre en place l’unité européenne au sein de laquelle il souhaite exercer une influence sur l’Allemagne réunifiée, et à partir de laquelle il prévoit développer sa politique d’après-guerre froide. Ces initiatives doivent permettre à la France d’absorber les contrecoups de la réunification allemande et de sauvegarder ses intérêts nationaux. Dans l’ensemble, la politique allemande de François Mitterrand est en continuité avec la politique allemande développée par le général de Gaulle de 1958 à 1964. Les deux hommes cherchent ainsi à s’appuyer sur la RFA pour créer l’unité européenne afin que celle-ci serve de tremplin à la France pour qu’elle atteigne ses objectifs de grandeur et d’indépendance. Enfin, nous croyons que le discours public du président socialiste peut être utilisé comme source primaire car il renferme une quantité importante d’information, mais son utilisation doit se faire avec précaution car comme tous les discours politiques, il vise d’abord et avant tout à convaincre l’opinion publique du bien fondé des politiques avancées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le VPH-16 de même que certains VPH, dont le VPH-18, causent le cancer du col utérin. Son intégration dans le génome humain pourrait être un marqueur de progression de l’infection. Les charges virales totale et intégrée sont présentement mesurées en quantifiant par PCR en temps réel les gènes E6 (RT-E6) et E2 (RT-E2-1) du VPH-16. Nous avons évalué l’impact du polymorphisme du gène E2 sur la quantification de l’ADN du VPH-16 dans des spécimens cliniques. Dans un premier temps, le gène E2 de 135 isolats de VPH-16 (123 appartenaient au clade Européen et 12 à des clades non- Européens) fut séquencé. Ensuite, un test de PCR en temps réel ciblant les séquences conservées dans E2 (RT-E2-2) fut développé et optimisé. Cent trente-neuf spécimens (lavages cervicaux et vaginaux) provenant de 74 participantes (58 séropositives pour le VIH, 16 séronégatives pour le VIH) ont été étudiés avec les trois tests E2 (RT-E2-2), E6 (RT-E6) et E2 (RT-E2-1). Les ratios de la quantité d’ADN de VPH-16 mesuré avec RT-E2-2 et RT-E2-1 dans les isolats Européens (médiane, 1.02; intervalle, 0.64-1.80) et Africains 1 (médiane, 0.80; intervalle, 0.53-1.09) sont similaires (P=0.08). Par contre, les ratios mesurés avec les isolats Africains 2 (médiane, 3.23; intervalle, 1.92-3.49) ou Asiatique- Américains (médiane, 3.78; intervalle, 1.47-37) sont nettement supérieurs à ceux obtenus avec les isolats Européens (P<0.02 pour chaque comparaison). Les distributions des quantités de E2 contenues dans les 139 échantillons mesurées avec RT-E2-2 (médiane, 6150) et RT-E2-1 (médiane, 8960) étaient statistiquement différentes (P<0.0001). Nous avons observé que les charges virales totale (odds ratio (OR) OR, 2.16 95% intervalle de confiance (IC) 1.11-4.19), et épisomale du VPH-16 (OR, 2.14 95% IC 1.09-4.19), mais pas la présence de formes intégrées (OR, 3.72 95% IC 1.03-13.4), sont associées aux néoplasies intraepitheliales cervicales de haut grade (CIN-2,3), et ce, en contrôlant pour des facteurs confondants tels que l’âge, le taux de CD4 sanguin, l’infection au VIH, et le polymorphisme de VPH-16. La proportion des échantillons ayant un ratio E6/E2 > 2 pour les femmes sans lésion intraépithéliale (7 de 35) est similaire à celle des femmes avec CIN-2,3 (5 de 11, p=0.24) ou avec CIN- 1 (4 de14, P=0.65). Le polymorphisme du gène E2 est un facteur qui influence la quantification des charges intégrées de VPH-16.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 131–1275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude a pour objectif d’évaluer la stratégie d’utilisation de critères de base, d’un point de vue éthique, dans l’allocation d’une quantité limitée d’antiviraux pour une utilisation préventive, lors d’une pandémie. Il est entendu qu’une réserve publique pour la prévention n’est pas présentement en vue. Ainsi un des objectifs de cette recherche est de servir de guide aux personnes ressources en positions décisionnelles, à savoir si l’acquisition d’une telle réserve est justifiée, et dans l’affirmatif, à qui elle serait destinée. La perspective spécifique de deux groupes de professionnels de la santé œuvrant en première ligne est considérée. Le premier groupe est constitué de professionnels provenant des hôpitaux de la région de Toronto qui ont vécu l’expérience du SRAS en 2003. Le second groupe est composé de travailleurs en santé de la région de Montréal qui n’auront pas vécu cette crise sanitaire. Les deux groupes sont analysés ensemble sur leur discours verbal et sur leurs réponses à un questionnaire bâti afin d’évaluer quel poids les participants donnent aux critères proposés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’électrofilage est un procédé permettant de préparer des fibres possédant un diamètre de l’ordre du micromètre ou de quelques centaines de nanomètres. Son utilisation est toutefois limitée par le manque de contrôle sur la structure et les propriétés des fibres ainsi produites. Dans ce travail, des fibres électrofilées à partir de mélanges de polystyrène (PS) et de poly(vinyl méthyl éther) (PVME) ont été caractérisées. La calorimétrie différentielle à balayage (DSC) a montré que les fibres du mélange PS/PVME sont miscibles (une seule transition vitreuse) lorsque préparées dans le benzène, alors qu'une séparation de phases a lieu lorsque le chloroforme est utilisé. Les fibres immiscibles sont néanmoins malléables, contrairement à un film préparé par évaporation du chloroforme qui a des propriétés mécaniques médiocres. Des clichés en microscopies optique et électronique à balayage (MEB) ont permis d’étudier l'effet de la composition et du solvant sur le diamètre et la morphologie des fibres. Des mesures d’angles de contact ont permis d’évaluer l’hydrophobicité des fibres, qui diminue avec l’ajout de PVME (hydrophile); les valeurs sont de 60° supérieures à celles des films de composition équivalente. Un retrait sélectif du PVME a été réalisé par l’immersion des fibres dans l’eau. La spectroscopie infrarouge a montré que la composition passe de 70 à 95% de PS pour une fibre immiscible mais seulement à 75% pour une fibre miscible. Ces résultats indiquent que la phase riche en PVME se situe presque uniquement à la surface des fibres immiscibles, ce qui a été confirmé par microscopie à force atomique (AFM) et MEB. Finalement, l’effet du mélange des deux solvants, lors de l’électrofilage du mélange PS/PVME, a été étudié. La présence du chloroforme, même en quantité réduite, provoque une séparation de phases similaire à celle observée avec ce solvant pur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche. Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images. Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation. Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trois expériences ont été menées dans le but de déterminer quels codes sous-tendant la représentation de l’organisation spatiale des composantes des formes complexes contribuent aux discriminations d’objets complexes. Les trois expériences ont utilisé une tâche d’appariement simultané d’objets complexes. Aux essais négatifs, les objets pouvaient avoir des différences catégorielles de configuration, des différences métriques de configuration, des différences métriques de configuration et du rôle des parties ou des différences du rôle des parties seulement. La distance angulaire 2D ou 3D entre les stimuli pouvait varier. À l’expérience 1, les stimuli étaient présentés avec stéréoscopie et avaient une surface avec un gradient de texture de haut contraste. L’expérience 2 constitue une réplication de l’expérience 1 hormis pour l’utilisation de stimuli dont le contraste était réduit. Le but de cette manipulation était de vérifier si les résultats de l’expérience 1 sont répliqués avec une tâche dont le niveau de difficulté est plus élevé. Les stimuli de la troisième expérience avaient une surface gris mat et étaient présentés sans stéréoscopie. Les trois expériences ont montré que des codes catégoriel et pertinent aux rôles des parties contribuent à la discrimination d’objets complexes. Toutefois, ces codes sont dépendants aux orientations 2D et 3D, et ce, peu importe la richesse de l’information de profondeur présente dans les stimuli. De plus, nos résultats démontrent une plus grande sensibilité aux différences catégorielles de configuration qu’aux différences métriques. Enfin, un code métrique contribue également aux discriminations. Toutefois, la contribution de ce code disparaît lorsque la quantité d’information de profondeur est réduite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nos jours, les logiciels doivent continuellement évoluer et intégrer toujours plus de fonctionnalités pour ne pas devenir obsolètes. C'est pourquoi, la maintenance représente plus de 60% du coût d'un logiciel. Pour réduire les coûts de programmation, les fonctionnalités sont programmées plus rapidement, ce qui induit inévitablement une baisse de qualité. Comprendre l’évolution du logiciel est donc devenu nécessaire pour garantir un bon niveau de qualité et retarder le dépérissement du code. En analysant à la fois les données sur l’évolution du code contenues dans un système de gestion de versions et les données quantitatives que nous pouvons déduire du code, nous sommes en mesure de mieux comprendre l'évolution du logiciel. Cependant, la quantité de données générées par une telle analyse est trop importante pour être étudiées manuellement et les méthodes d’analyses automatiques sont peu précises. Dans ce mémoire, nous proposons d'analyser ces données avec une méthode semi automatique : la visualisation. Eyes Of Darwin, notre système de visualisation en 3D, utilise une métaphore avec des quartiers et des bâtiments d'une ville pour visualiser toute l'évolution du logiciel sur une seule vue. De plus, il intègre un système de réduction de l'occlusion qui transforme l'écran de l'utilisateur en une fenêtre ouverte sur la scène en 3D qu'il affiche. Pour finir, ce mémoire présente une étude exploratoire qui valide notre approche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le rôle important joué par la mitochondrie dans la cellule eucaryote est admis depuis longtemps. Cependant, la composition exacte des mitochondries, ainsi que les processus biologiques qui sy déroulent restent encore largement inconnus. Deux facteurs principaux permettent dexpliquer pourquoi létude des mitochondries progresse si lentement : le manque defficacité des méthodes didentification des protéines mitochondriales et le manque de précision dans lannotation de ces protéines. En conséquence, nous avons développé un nouvel outil informatique, YimLoc, qui permet de prédire avec succès les protéines mitochondriales à partir des séquences génomiques. Cet outil intègre plusieurs indicateurs existants, et sa performance est supérieure à celle des indicateurs considérés individuellement. Nous avons analysé environ 60 génomes fongiques avec YimLoc afin de lever la controverse concernant la localisation de la bêta-oxydation dans ces organismes. Contrairement à ce qui était généralement admis, nos résultats montrent que la plupart des groupes de Fungi possèdent une bêta-oxydation mitochondriale. Ce travail met également en évidence la diversité des processus de bêta-oxydation chez les champignons, en corrélation avec leur utilisation des acides gras comme source dénergie et de carbone. De plus, nous avons étudié le composant clef de la voie de bêta-oxydation mitochondriale, lacyl-CoA déshydrogénase (ACAD), dans 250 espèces, couvrant les 3 domaines de la vie, en combinant la prédiction de la localisation subcellulaire avec la classification en sous-familles et linférence phylogénétique. Notre étude suggère que les gènes ACAD font partie dune ancienne famille qui a adopté des stratégies évolutionnaires innovatrices afin de générer un large ensemble denzymes susceptibles dutiliser la plupart des acides gras et des acides aminés. Finalement, afin de permettre la prédiction de protéines mitochondriales à partir de données autres que les séquences génomiques, nous avons développé le logiciel TESTLoc qui utilise comme données des Expressed Sequence Tags (ESTs). La performance de TESTLoc est significativement supérieure à celle de tout autre outil de prédiction connu. En plus de fournir deux nouveaux outils de prédiction de la localisation subcellulaire utilisant différents types de données, nos travaux démontrent comment lassociation de la prédiction de la localisation subcellulaire à dautres méthodes danalyse in silico permet daméliorer la connaissance des protéines mitochondriales. De plus, ces travaux proposent des hypothèses claires et faciles à vérifier par des expériences, ce qui présente un grand potentiel pour faire progresser nos connaissances des métabolismes mitochondriaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les détecteurs ATLAS-MPX sont des détecteurs Medipix2-USB recouverts de convertisseurs de fluorure de lithium et de polyéthylène pour augmenter l’efficacité de détection des neutrons lents et des neutrons rapides respectivement. Un réseau de quinze détecteurs ATLAS-MPX a été mis en opération dans le détecteur ATLAS au LHC du CERN. Deux détecteurs ATLAS-MPX de référence ont été exposés à des sources de neutrons rapides 252 Cf et 241 AmBe ainsi qu’aux neutrons rapides produits par la réaction 7Li(p, xn) pour l’étude de la réponse du détecteur à ces neutrons. Les neutrons rapides sont principalement détectés à partir des protons de recul des collisions élastiques entre les neutrons et l’hydrogène dans le polyéthylène. Des réactions nucléaires entre les neutrons et le silicium produisent des particules-α. Une étude de l’efficacité de reconnaissance des traces des protons et des particules-α dans le détecteur Medipix2-USB a été faite en fonction de l’énergie cinétique incidente et de l’angle d’incidence. L’efficacité de détection des neutrons rapides a été évaluée à deux seuils d’énergie (8 keV et 230 keV) dans les détecteurs ATLAS-MPX. L’efficacité de détection des neutrons rapides dans la région du détecteur couverte avec le polyéthylène augmente en fonction de l’énergie des neutrons : (0.0346 ± 0.0004) %, (0.0862 ± 0.0018) % et (0.1044 ± 0.0026) % pour des neutrons rapides de 2.13 MeV, 4.08 MeV et 27 MeV respectivement. L’étude pour déterminer l’énergie des neutrons permet donc d’estimer le flux des neutrons quand le détecteur ATLAS-MPX est dans un champ de radiation inconnu comme c’est le cas dans le détecteur ATLAS au LHC.