993 resultados para extraction sur phase solide
Resumo:
Dans cette thèse de sociologie du droit, nous étudions l'influence du droit de l'État sur les sujets de droit. Notre hypothèse générale est que les intermédiaires du droit de l'État contribuent de façon importante à façonner le« rapport au droit» des sujets de droit. C'est-à-dire qu'ils auraient une incidence sur la construction de la relation d'influence du droit sur ces acteurs sociaux et, par là, un effet marqué sur la « légitimité empirique » du droit. Par leurs pratiques professionnelles les intermédiaires du droit auraient une incidence notable, quoique non exclusive, sur les formes concrètes de «rapports au droit» des sujets de droit. Dans l'étude de ce phénomène, nous comparons empiriquement les liens existant entre différents « rapports au droit » des sujets de droit et un droit caractérisé par une rationalité juridique fort différente selon qu'il aurait été porté par un avocat ou un médiateur. Ces deux groupes de professionnels sont les intermédiaires du droit qui font 1’objet de notre observation, laquelle n'est ni générale, ni globale, mais spécifique au divorce, géographiquement localisée à Montréal et historiquement située au début des années 1990. L'intérêt de cette période pour une étude de l'influence du droit sur les sujets de droit est qu'elle constitue un moment unique de l'histoire à Montréal. À cette époque, les différences entre les pratiques professionnelles des avocats et des médiateurs auraient été les plus extrêmes, ce qui favorise un travail de comparaison d'autant plus éclairant. En effet, au début des années 1990, après une dizaine d'années d'expérience, le Service de médiation à la famille de Montréal avait réussi à assurer une solide pratique professionnelle. Par ailleurs, la pratique professionnelle des avocats dans le domaine du divorce était déjà fort « modernisée », mais elle demeurait encore très peu influencée par la médiation familiale. Puisque le « rapport au droit » des personnes qui ont consulté ces intermédiaires du droit en vue de leur divorce est au cœur de 1 'étude, c'est auprès d'eux que nous avons réalisé des entretiens, et c'est l'analyse de ces entretiens qui permet de comprendre leur « rapport au droit». La sociologie de Max Weber est la perspective scientifique dans laquelle nous avons inscrit notre recherche. Une telle ambition exigeait que nous ne restions pas confinée aux seuls concepts les plus populaires. Par conséquent, une partie importante de cette thèse est consacrée à une présentation substantielle de la sociologie wébérienne. Sur cette base, nous avons construit notre stratégie d'enquête et nos instruments d'analyse idéal typiques. Non seulement il n'y a pas, chez Weber, de théorie systémique générale composée de lois explicatives des relations sociales, mais il n'y a pas non plus de modèle de cadre d'analyse particulier préfabriqué qui serait constitué comme un «prêt-à-porter» applicable en vue de réaliser des recherches empiriques, que ce soit dans le domaine du droit ou dans n'importe quel autre domaine d'activité humaine. En revanche, la sociologie wébérienne fournit plusieurs séries de repères conceptuels. Ils permettent d'organiser la recherche empirique sans jamais limiter les objets d'enquêtes possibles, ni l'imagination du chercheur, en autant que celui-ci a pour but de comprendre l'action sociale en l'interprétant et, par-là, de l'expliquer causalement dans son déroulement et ses effets. C'est là le projet de connaissance que Weber désigne par « sociologie ». Il vise ce projet de connaissance, non pas de manière générale et globale, mais toujours de manière particulière selon les domaines d'activité, les lieux, les époques, les sphères de valeurs, etc. Dans cette thèse, nous proposons un cadre d'analyse qui peut servir à poser et à approfondir toutes sortes de questions sur le droit et son influence, sans jamais qu'il soit considéré comme un système de lois à la manière du droit positif. Ce cadre d'analyse vise à appréhender le droit comme une sorte de relation sociale que l'on peut comprendre sociologiquement en considérant, notamment, les représentations juridiques des différentes catégories d'acteurs sociaux. C'est là la première, non pas la seule, condition à rencontrer en vue de respecter les exigences de la connaissance empirique du droit parce que le « droit empirique » ne se trouve pas dans la règle de droit positif. Il se trouve là où il est « porté » par des êtres humains et, en particulier, par des groupes d'humains qui détiennent une importante dose d'influence sociale. Nous souhaitons que cette étude, grâce à 1 'immense apport de la sociologie de Max Weber, contribue à la compréhension sociologique d'un aspect du « droit empirique» de l’État contemporain.
Resumo:
Ce mémoire porte sur les raisons qu’ont de jeunes adultes québécois de discuter ou non de politique sur Internet. Il s’inscrit dans le contexte général de l’avènement du Web 2.0 et dans le contexte particulier des élections canadiennes de mai 2011. Au niveau théorique, nous avons mobilisé la théorie de l’agir communicationnel du philosophe allemand Jürgen Habermas ainsi que sa conception de la sphère publique. Du point de vue méthodologique, nous avons étudié un échantillon composé de jeunes adultes québécois, hommes et femmes, âgés de 19 à 30 ans, qui habitent à Montréal et dans ses environs. Ces jeunes citoyens ont été interrogés dans le cadre de quatre focus groups. Les données recueillies ont été analysées selon une méthode d’extraction des arguments en accord avec la méthodologie de la reconstruction rationnelle. Les résultats ont permis d’exposer plusieurs raisons qu’ont avancées les jeunes adultes interrogés pour expliquer leur degré de participation à des discussions politiques sur Internet. Celles-‐ci ont été regroupées en quatre thèmes: le manque de connaissances et l’aspect public; la conscientisation et l’obtention de feedback; la réaction par rapport au contenu, la composition du réseau et la valeur de l’information; le face à face, l’anonymat et les sujets controversés. Ces résultats ont été discutés en considérant ceux obtenus par d’autres chercheurs afin de faire ressortir les apports de cette étude au domaine de la communication. La discussion a également permis d’adopter un point de vue théorique critique pour explorer ce que les résultats de ce mémoire révèlent sur l’état de la sphère publique québécoise.
Resumo:
Les tumeurs stromales gastrointestinales (GIST) sont les néoplasies mésenchymateuses les plus complexes du système gastrointestinal. Le traitement curatif standard de cette pathologie est la chirurgie avec l'obtention de marges microscopiques négatives. Les résultats impressionnants obtenus sur la prolongation de la survie avec l'administration d'imatinib (IM) chez les patients atteints de maladie métastatique et non-réséquable ont suggéré aux cliniciens que ce même médicament pourrait aussi collaborer à l'obtention de marges négatives plus aisément lors de cancer avancé. Jusqu'à présent, aucune étude prospective n'a caractérisée l'effet d'une thérapie néoadjuvante prolongée à l'IM sur la qualité de la résection chirurgicale subséquente. L'objectif de ce projet de maîtrise était d'évaluer l'efficacité de l'imatinib utilisé avant la chirurgie (néoadjuvant) jusqu'à l'obtention d'une réponse maximale, en vue d'augmenter le taux de résection microscopique complète (R0) dans le traitement chirurgical des GIST à haut risque de résection microscopique incomplète (R1) ou impossible (R2). Pour ce faire, une étude prospective multicentrique de phase II a été réalisée. Le traitement néoadjuvant à l'IM a été instauré chez des patients porteurs d'une GIST localement avancée ou métastatique. Au total, quatorze patients ont reçu une dose de 400-600 mg/d d'IM pour une durée de 6-12 mois avant la chirurgie. Quatorze patients ont été inclus dans l'étude. Onze ont eu une chirurgie à visée curative, un patient a démontré une maladie non-réséquable suite à une laparotomie exploratrice et deux patients ont refusé la chirurgie. Après un suivi moyen de 48 mois, tous les patients opérés étaient vivants et sept sans évidence de récidive. L'utilisation prolongée (12 mois) d'IM dans un contexte néoadjuvant est faisable, sécuritaire, efficace et comporte peu de toxicité. De plus, cette approche est associée à des hauts taux de résection complète (R0), tout en permettant une chirurgie moins extensive. Des études de phase III actuellement en cours sont nécessaires afin de confirmer nos résultats.
Resumo:
Le neuroblastome (NB) est la tumeur solide extracranienne la plus fréquente et mortelle chez les jeunes enfants. Il se caractérise par une résistance à la chimiothérapie possiblement en partie dû à la présence de cellules initiatrices de tumeurs (TICs). Des études ont mis en évidence le rôle de CD133 comme un marqueur des TICs dans divers types de cancers. Les buts de notre travail étaient d’abord de démontrer les vertus de TICs des cellules exprimant CD133 et ensuite, en utilisant une analyse globale du génome avec des polymorphismes nucléotidiques simples (SNPs), d’effectuer une analyse différentielle entre les TICs et les autres cellules du NB afin d’en identifier les anomalies génétiques spécifiques. Des lignées cellulaires de NB ont été triées par cytométrie de flux afin d’obtenir deux populations: une enrichie en CD133 (CD133high), l’autre faible en CD133 (CD133low). Afin de déterminer si ces populations cellulaires présentent des propriétés de TICs, des essais sur les neurosphères, les colonies en agar mou et les injections orthotopiques de 500 cellules sélectionnées dans 11 souris ont été réalisées. Après une isolation de l’ADN des populations sélectionnées, nous avons effectué une analyse génotypique par SNP utilisant les puces « Affymetrix Genome-Wide Human SNP Array 6.0 ». Pour vérifier l’expression des gènes identifiés, des Western Blots ont été réalisés. Nos résultats ont démontré que la population CD133 avait des propriétés de TICs in vitro et in vivo. L’analyse génotypique différentielle a permis d’identifier deux régions communes (16p13.3 and 19p13.3) dans la population CD133high ayant des gains et deux autres régions (16q12.1 and 21q21.3) dans la population CD133low possédant des pertes d’hétérozygoties (LOH). Aucune perte n’a été observée. Parmi les gènes étudiés, l’expression protéique d’éphrine-A2 était corrélée à celle de CD133 dans 6 tumeurs et 2 lignées cellulaires de NB. De plus, l’augmentation de la concentration d’anticorps anti-éphrine-A2 dans le milieu diminue la taille des neurosphères. Ainsi, la population CD133high, qui a des vertus de TICs, possède des caractéristiques génotypiques différentes par rapport à celle CD133low. La présence d’éphrine-A2 dans les cellules exprimant CD133 souligne son importance dans le développement des TICs. Ces résultats suggèrent la présence de potentielle cible pour de nouvelles thérapeutiques ciblant les TICs mise en évidence par l’étude génomique.
Resumo:
Les dinoflagellés sont des eucaryotes unicellulaires qui composent une grande partie du phytoplancton et qui jouent un rôle important au niveau de la photosynthèse, de la production primaire et de la conservation des écosystèmes marins. Les dinoflagellés se distinguent des autres eucaryotes par leur biologie et leur organisation nucléaire unique. Lors de la mitose, leur membrane nucléaire demeure intacte et la ségrégation des chromosomes se fait à partir de fuseaux mitotiques formés dans le cytoplasme et qui traversent le noyau au travers de canaux spécialisés Aussi, leurs chromosomes sont condensés en permanence et le processus utilisé pour y arriver est encore très mal compris puisque les dinoflagellés ne possèdent aucunes histones détectables. Lingulodinium polyedrum est un dinoflagellé photosynthétique marin utilisé comme organisme modèle en ce qui concerne l’étude des rythmes circadiens (bioluminescence, migration verticale, mitose et photosynthèse). La découverte et l’étude des éléments régulateurs du cycle cellulaire peuvent nous amener à comprendre le mécanisme, l’influence et la portée du contrôle circadien sur le cycle cellulaire. De plus, l’étude du cycle cellulaire pourrait permettre de révéler des indices quant aux caractéristiques singulières des dinoflagellés qui sont pour le moment énigmatiques. Par le passé, une étude chez Lingulodinium polyedrum a permis d’identifier la cycline impliquée dans la mitose, LpCyc1, le premier régulateur du cycle cellulaire a être découvert chez les dinoflagellés. La présente étude s’attarde sur la caractérisation de la LpCyc1, soit son expression, sa localisation, sa phosphorylation. Ces trois éléments concordent de façon à synchroniser l’activité de la LpCyc1 (et ainsi la mitose) de façon circadienne. Cette étude présente aussi la création et le développement d’un outil majeur pour l’étude future de Lingulodinium polyedrum, le transcriptome des ARNm à partir d’un iv séquençage Illumina. C’est d’ailleurs avec cet outil que nous avons découvert la CDK responsable du contrôle de la phase M, LpCdk1. Cette CDK possède tous les domaines d’une CDK classique, un site de liaison des substrats, un site de liaison à l’ATP, une boucle activatrice, et une interface de liaison avec la cycline. Le transcriptome de Lingulodinium polyedrum a aussi permis de recenser toutes les protéines conservées normalement retrouvées dans le contrôle du cycle cellulaire, qui nous a permis de faire une ébauche préliminaire du cycle cellulaire de L. polyedrum. Cette analyse est une première chez Lingulodinium polyedrum et peut s’étendre pour l’étude d’une multitude d’autres processus métaboliques.
Resumo:
L’insuffisance rénale chronique (IRC) affecte 13 % de la population américaine et son incidence ne cesse d’augmenter. Malgré un ajustement des doses de médicaments administrés en fonction du taux de filtration glomérulaire du patient urémique, près de 40 % des patients reçoivent une dose trop élevée en raison de modifications de l’élimination extrarénale des médicaments chez ces patients. Il est connu que l’IRC affecte l’élimination métabolique des médicaments par les cytochromes P450 et les enzymes de biotransformation de phase II. Nous avons aussi démontré, chez le rat, que l’IRC affecte l’expression et l’activité de transporteurs de médicaments intestinaux entraînant une augmentation de la biodisponibilité de certains médicaments. On retrouve des transporteurs de médicaments dans de nombreux organes comme le foie, les reins et la barrière hématoencéphalique (BHE) où ils jouent des rôles importants dans les éliminations biliaire et rénale et la pénétration des médicaments au cerveau. Le but de ce travail était de mesurer, chez des rats néphrectomisés, les impacts de l’IRC sur l’expression protéique et génique et l’activité des transporteurs de médicaments hépatiques, rénaux et cérébraux. Les transporteurs étudiés sont de la famille des transporteurs ABC (P-glycoprotéine, multidrug-resistance related protein, breast cancer resistance protein) ou des solute carriers (organic anion transporter, organic anion transporting protein). Aussi, une étude réalisée chez l’humain visait à évaluer la pharmacocinétique de deux médicaments : la fexofénadine, un médicament majoritairement transporté, et le midazolam, un substrat du cytochrome P450 3A4, chez des sujets dialysés. Nos résultats montrent que, chez le rat, l’IRC entraîne des modulations de l’expression des transporteurs d’influx et d’efflux hépatiques pouvant entraîner des diminutions du métabolisme hépatique et de l’excrétion biliaire des médicaments. Dans le rein, nous avons démontré des modulations de l’expression des transporteurs de médicaments. Nous avons aussi démontré que l’IRC diminue l’élimination urinaire de la rhodamine 123 et favorise l’accumulation intrarénale de médicaments transportés comme la benzylpénicilline et la digoxine. À la BHE, nous avons démontré des diminutions de l’expression des transporteurs de médicaments. Toutefois, nous n’avons pas observé d’accumulation intracérébrale de trois substrats utilisés (digoxine, doxorubicine et vérapamil) et même une diminution de l’accumulation intracérébrale de la benzylpénicilline. Il semble donc que, malgré les modulations de l’expression des différents transporteurs de médicaments, l’intégrité et la fonction de la BHE soient conservées en IRC. Chez l’humain, nous avons démontré une augmentation de la surface sous la courbe de la fexofénadine chez les sujets dialysés, comparativement aux témoins, suggérant une altération des mécanismes de transport des médicaments chez ces patients. Nous n’avons, toutefois, pas observé de modification de la pharmacocinétique du midazolam chez les patients dialysés, suggérant une activité métabolique normale chez ces patients. Un ou des facteurs s’accumulant dans le sérum des sujets urémiques semblent responsables des modulations de l’expression et de l’activité des transporteurs de médicaments observées chez le rat et l’humain. Ces travaux mettent en évidence une nouvelle problématique chez les sujets urémiques. Nous devons maintenant identifier les mécanismes impliqués afin d’éventuellement développer des stratégies pour prévenir la toxicité et la morbidité chez ces patients.
Resumo:
Les observations astronomiques et cosmologiques suggèrent fortement la présence d’une matière exotique, non-relativiste et non-baryonique qui représenterait 26% du contenu de masse-énergie de l’Univers actuel. Cette matière dite sombre et froide serait compo- sée de particules neutres, massives et interagissant faiblement avec la matière ordinaire (WIMP : Weakly Interactive Massive Particles). Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une des expériences installées dans le site souterrain de SNOLAB à Sudbury en Ontario, qui tente de détecter directement un des candidats de la matière sombre, proposé dans le cadre des extensions supersymétriques du modèle standard : le neutralino. Pour cela, PICASSO utilise des détecteurs à gouttelettes surchauffées de C4F10, basés sur le principe de la chambre à bulles. Les transitions de phase dans les liquides surchauffés peuvent être déclenchées par le recul du 19 F, causé par une collision élastique avec les neutralinos. La nucléation de la gouttelette génère une onde sonore enregistrée par des senseurs piézo-électriques. Cette thèse présentera les récents progrès de l’expérience PICASSO qui ont conduit à une augmentation substantielle de sa sensibilité dans la recherche du neutralino. En effet, de nouvelles procédures de fabrication et de purification ont permis de réduire à un facteur de 10, la contamination majeure des détecteurs, causée par les émetteurs alpha. L’étude de cette contamination dans les détecteurs a permis de localiser la source de ces émetteurs. Les efforts effectués dans le cadre de l’analyse des données, ont permis d’améliorer l’effet de discrimination entre des évènements engendrés par les particules alpha et par les reculs nucléaires. De nouveaux outils d’analyse ont également été implémentés dans le but de discriminer les évènements générés par des particules de ceux générés par des bruits de fond électroniques ou acoustiques. De plus, un mécanisme important de suppression de bruit de fond indésirable à haute température, a permis à l’expérience PICASSO d’être maintenant sensible aux WIMPs de faibles masses.
Resumo:
La reconnaissance d’objets est une tâche complexe au cours de laquelle le cerveau doit assembler de manière cohérente tous les éléments d’un objet accessible à l’œil afin de le reconnaître. La construction d’une représentation corticale de l’objet se fait selon un processus appelé « bottom-up », impliquant notamment les régions occipitales et temporales. Un mécanisme « top-down » au niveau des régions pariétales et frontales, facilite la reconnaissance en suggérant des identités potentielles de l’objet à reconnaître. Cependant, le mode de fonctionnement de ces mécanismes est peu connu. Plusieurs études ont démontré une activité gamma induite au moment de la perception cohérente de stimuli, lui conférant ainsi un rôle important dans la reconnaissance d’objets. Cependant, ces études ont utilisé des techniques d’enregistrement peu précises ainsi que des stimuli répétitifs. La première étude de cette thèse vise à décrire la dynamique spatio-temporelle de l’activité gamma induite à l’aide de l’électroencéphalographie intracrânienne, une technique qui possède des résolutions spatiales et temporelles des plus précises. Une tâche d’images fragmentées a été conçue dans le but de décrire l’activité gamma induite selon différents niveaux de reconnaissance, tout en évitant la répétition de stimuli déjà reconnus. Afin de mieux circonscrire les mécanismes « top-down », la tâche a été répétée après un délai de 24 heures. Les résultats démontrent une puissante activité gamma induite au moment de la reconnaissance dans les régions « bottom-up ». Quant aux mécanismes « top-down », l’activité était plus importante aux régions occipitopariétales. Après 24 heures, l’activité était davantage puissante aux régions frontales, suggérant une adaptation des procédés « top-down » selon les demandes de la tâche. Très peu d’études se sont intéressées au rythme alpha dans la reconnaissance d’objets, malgré qu’il soit bien reconnu pour son rôle dans l’attention, la mémoire et la communication des régions neuronales distantes. La seconde étude de cette thèse vise donc à décrire plus précisément l’implication du rythme alpha dans la reconnaissance d’objets en utilisant les techniques et tâches identiques à la première étude. Les analyses révèlent une puissante activité alpha se propageant des régions postérieures aux régions antérieures, non spécifique à la reconnaissance. Une synchronisation de la phase de l’alpha était, quant à elle, observable qu’au moment de la reconnaissance. Après 24 heures, un patron similaire était observable, mais l’amplitude de l’activité augmentait au niveau frontal et les synchronies de la phase étaient davantage distribuées. Le rythme alpha semble donc refléter des processus attentionnels et communicationnels dans la reconnaissance d’objets. En conclusion, cette thèse a permis de décrire avec précision la dynamique spatio-temporelle de l’activité gamma induite et du rythme alpha ainsi que d’en apprendre davantage sur les rôles potentiels que ces deux rythmes occupent dans la reconnaissance d’objets.
Resumo:
Les liposomes sont des nanovecteurs polyvalents et prometteurs quant à leur utilisation dans plusieurs domaines. Il y a une décennie, un nouveau type de liposome constitué d’amphiphiles monoalkylés et de stérols est né fortuitement dans notre groupe. Ils sont nommés Stérosomes puisqu’ils contiennent une grande proportion de stérols, entre 50 et 70 mol %. Les objectifs de cette thèse sont de développer de nouvelles formulations de Stérosomes ayant des caractéristiques spécifiques et d’acquérir une compréhension plus profonde des règles physicochimiques qui dictent leur comportement de phase. Nous avons spécifiquement examiné le rôle de motifs moléculaires des stérols, de la charge interfaciale et de la capacité à former des liaisons H dans les interactions intermoléculaires menant à l’autoassemblage. Le comportement de phase a été caractérisé par calorimétrie différentielle à balayage (DSC), par spectroscopie infrarouge (IR) et par spectroscopie de résonance magnétique nucléaire du deutérium (²H NMR). Premièrement, nous avons établi certaines corrélations entre la structure des stérols, leur tendance à former des bicouches fluides en présence d'amphiphile monoalkylé et la perméabilité des grandes vésicules unilamellaires (LUV) formées. La nature des stérols module les propriétés de mélange avec de l’acide palmitique (PA). Les stérols portant une chaîne volumineuse en position C17 sont moins aptes à induire des bicouches fluides que ceux qui ont une chaîne plus simple, comme celle du cholestérol. Un grand ordre de la chaîne alkyle de PA est un effet commun à tous les stérols investigués. Il a été démontré que la perméabilité des LUV peut être contrôlée en utilisant des stérols différents. Cependant, ces stérols n’ont aucun impact significatif sur la sensibilité des Stérosomes au pH. Afin de créer des liposomes qui sont sensibles au pH et qui ont une charge positive à la surface, des Stérosomes composés de stéarylamine et de cholestérol (Chol) ont été conçus et caractérisés. Il a été conclu que l’état de protonation de l’amine, dans ce travail, ou du groupe carboxylique, dans un travail précédent, confère une sensibilité au pH et détermine la charge à la surface du liposome. Les premiers Stérosomes complètement neutres ont été fabriqués en utilisant un réseau de fortes liaisons H intermoléculaires. Le groupe sulfoxyde est capable de former de fortes liaisons H avec le cholestérol et les molécules d’eau. Une bicouche fluide métastable a été obtenue, à la température de la pièce, à partir d'un mélange équimolaire d’octadécyl méthyl sulfoxyde (OMSO) et de Chol. Ce comportement distinct a permis d’extruder le mélange pour former des LUV à la température de la pièce. Après 30 h, le temps de vie de la phase métastable, des Stérosomes stables et imperméables existaient toujours sous une forme solide. Un diagramme de température-composition a été proposé afin de résumer le comportement de phase des mélanges d’OMSO/Chol. Finalement, nous avons élaboré des Stérosomes furtifs en incorporant du polyéthylène glycol (PEG) avec une ancre de cholestérol (PEG-Chol) à l’interface de Stérosomes de PA/Chol. Jusqu’à 20 mol % de PEG-Chol peut être introduit sans perturber la structure de la bicouche. La présence du PEG-Chol n’a aucun impact significatif sur la perméabilité de la LUV. L'encapsulation active de la doxorubicine, un médicament contre le cancer, a été réalisée malgré la faible perméabilité de ces LUV et la présence du PEG à l’interface. L’inclusion de PEG a modifié considérablement les propriétés de l’interface et a diminué la libération induite par la variation de pH observée avec des LUV nues de PA/Chol. Cette formulation inédite est potentiellement utile pour l’administration intraveineuse de médicaments.
Resumo:
Le recours au plasma pour stériliser des dispositifs médicaux (DM) est un domaine de recherche ne datant véritablement que de la fin des années 1990. Les plasmas permettent, dans les conditions adéquates, de réaliser la stérilisation à basse température (≤ 65°C), tel qu’exigé par la présence de polymères dans les DM et ce contrairement aux procédés par chaleur, et aussi de façon non toxique, contrairement aux procédés chimiques comme, par exemple, l’oxyde d’éthylène (OEt). Les laboratoires du Groupe de physique des plasmas à l’Université de Montréal travaillent à l’élaboration d’un stérilisateur consistant plus particulièrement à employer les effluents d’une décharge N2-%O2 basse pression (2-8 Torrs) en flux, formant ce que l’on appelle une post-décharge en flux. Ce sont les atomes N et O de cette décharge qui viendront, dans les conditions appropriées, entrer en collisions dans la chambre de stérilisation pour y créer des molécules excitées NO*, engendrant ainsi l’émission d’une quantité appréciable de photons UV. Ceux-ci constituent, dans le cas présent, l’agent biocide qui va s’attaquer directement au bagage génétique du micro-organisme (bactéries, virus) que l’on souhaite inactiver. L’utilisation d’une lointaine post-décharge évite du même coup la présence des agents érosifs de la décharge, comme les ions et les métastables. L’un des problèmes de cette méthode de stérilisation est la réduction du nombre de molécules NO* créées par suite de la perte des atomes N et O, qui sont des radicaux connus pour interagir avec les surfaces, sur les parois des matériaux des DM que l’on souhaite stériliser. L’objectif principal de notre travail est de déterminer l’influence d’une telle perte en surface, dite aussi réassociation en surface, par l’introduction de matériaux comme le Téflon, l’acier inoxydable, l’aluminium et le cuivre sur le taux d’inactivation des spores bactériennes. Nous nous attendons à ce que la réassociation en surface de ces atomes occasionne ainsi une diminution de l’intensité UV et subséquemment, une réduction du taux d’inactivation. Par spectroscopie optique d’émission (SOE), nous avons déterminé les concentrations perdues de N et de O par la présence des matériaux dans le stérilisateur, ainsi que la diminution de l’émission UV en découlant. Nous avons observé que cette diminution des concentrations atomiques est d’autant plus importante que les surfaces sont catalytiques. Au cours de l’étude du phénomène de pertes sur les parois pour un mélange N2-%O2 nous avons constaté l’existence d’une compétition en surface entre les atomes N et O, dans laquelle les atomes d’oxygènes semblent dominer largement. Cela implique qu’au-delà d’un certain %O2 ajouté à la décharge N2, seuls les atomes O se réassocient en surface. Par ailleurs, l’analyse des courbes de survie bi-phasiques des micro-organismes a permis d’établir une étroite corrélation, par lien de cause à effet, entre la consommation des atomes N et O en surface et la diminution du taux d’inactivation des spores dans la première phase. En revanche, nous avons constaté que notre principal agent biocide (le rayonnement ultraviolet) est moins efficace dans la deuxième phase et, par conséquent, il n’a pas été possible d’établir un lien entre la diminution des concentrations et le taux d’inactivation de cette phase-là.
Resumo:
Les nanomatériaux sont de plus en plus présents dans les produits consommables du quotidien. L’argent est le métal le plus utilisé en nanotechnologie pour ses propriétés antimicrobiennes. Par différentes voies d’entrée, les nanoparticules d’argent (nAg) se retrouvent dans l’environnement en quantité significative, notamment dans les sols suite à la valorisation agricole des biosolides municipaux. Il est prévu qu’une interaction négative sur la communauté microbienne terrestre ait des répercussions sur la fertilité du sol et les processus biogéochimiques. Les mesures de l’activité enzymatique ont déjà montré leur efficacité et leur sensibilité dans la détection d’une perturbation physique et chimique du sol. Les effets potentiels des nAg sur l’écosystème terrestre ont été évalués en mesurant l’activité des enzymes β-D-glucosidase (EC 3.2.1.21), leucine-aminopeptidase (EC 3.4.11.1), phosphomonoesterase (EC 3.1.3) et arylsulfatase (EC 3.1.6.1) intervenant dans les cycles des éléments essentiels C, N, P et S, respectivement. L’activité enzymatique est mesurée à l’aide d’une technique basée sur la fluorescence qui requière des substrats synthétiques liés à un fluorophore. Un sol de type sableux a été échantillonné au Campus Macdonald de l’Université McGill (Sainte-Anne-de-Bellevue, Qc) puis exposé aux nAg (taille ~20 nm) ou à la forme ionique Ag+ (Ag-acetate) à des concentrations nominales de 1,25 × 10-3, 1,25 × 10-2, 0,125, 1,25, 6,25 et 31,25 mg Ag kg-1 sol. De plus, le rôle de la matière organique (MO) a été évalué en effectuant un amendement du sol avec un compost de feuilles. Pour mieux comprendre les effets observés, des analyses de spéciation de l’Ag ont été réalisées. Les concentrations en Ag dissous ont été déterminées après filtration à travers des membranes de 0,45 µm ou de 3 kDa (~1 nm, ultrafiltration) pour séparer la phase particulaire des ions dissous. De façon générale, une inhibition de l’activité enzymatique a été observée pour les 4 enzymes en fonction de l’augmentation de la concentration en Ag (totale et dissoute) mais elle est significativement moins importante avec l’ajout de la MO. Les résultats suggèrent que l’inhibition de l’activité des enzymes aux faibles expositions aux nAg est due aux nanoparticules puisqu’une très faible fraction des nAg est réellement dissoute et aucun effet significatif n’a été observé pour les sols traités à des concentrations similaires en Ag+. Par contre, les effets mesurés aux concentrations plus élevées en nAg sont semblables aux expositions à l’Ag+ et suggèrent un rôle de l’Ag colloïdale dans l’inhibition du processus enzymatique des sols.
Resumo:
La protection des renseignements personnels est au cœur des préoccupations de tous les acteurs du Web, commerçants ou internautes. Si pour les uns trop de règles en la matière pourraient freiner le développement du commerce électronique, pour les autres un encadrement des pratiques est essentiel à la protection de leur vie privée. Même si les motivations de chacun sont divergentes, le règlement de cette question apparaît comme une étape essentielle dans le développement du réseau. Le Platform for Privacy Preference (P3P) propose de contribuer à ce règlement par un protocole technique permettant la négociation automatique, entre l’ordinateur de l’internaute et celui du site qu’il visite, d’une entente qui encadrera les échanges de renseignements. Son application pose de nombreuses questions, dont celle de sa capacité à apporter une solution acceptable à tous et surtout, celle du respect des lois existantes. La longue et difficile élaboration du protocole, ses dilutions successives et sa mise en vigueur partielle témoignent de la difficulté de la tâche à accomplir et des résistances qu’il rencontre. La première phase du projet se limite ainsi à l’encodage des politiques de vie privée des sites et à leur traduction en termes accessibles par les systèmes des usagers. Dans une deuxième phase, P3P devrait prendre en charge la négociation et la conclusion d’ententes devant lier juridiquement les parties. Cette tâche s’avère plus ardue, tant sous l’angle juridique que sous celui de son adaptation aux us et coutumes du Web. La consolidation des fonctions mises en place dans la première version apparaît fournir une solution moins risquée et plus profitable en écartant la possible conclusion d’ententes incertaines fondées sur une technique encore imparfaite. Mieux éclairer le consentement des internautes à la transmission de leurs données personnelles par la normalisation des politiques de vie privée pourrait être en effet une solution plus simple et efficace à court terme.
Resumo:
Les hommes et les femmes diffèrent devant la survenue de plusieurs types d’arythmies cardiaques. Ainsi, la prévalence des fibrillations auriculaires, ou celle du syndrome de Brugada est plus élevée chez les hommes, tandis que les femmes sont plus susceptibles de développer des torsades de pointe. La survenue de ces arythmies pourrait être affectée par l’existence de disparités entre les sexes au niveau de l’activité électrique cardiaque normale. Des différences ont d’ailleurs été décrites dans les paramètres électrocardiographiques des hommes et des femmes, et notamment au niveau des paramètres traduisant la phase de repolarisation ventriculaire. Par ailleurs, plusieurs études cliniques et expérimentales ont permis d’avancer que les androgènes pourraient contribuer à expliquer les différences homme-femme observées dans la repolarisation ventriculaire. Leur influence sur les autres paramètres électrocardiographiques a toutefois reçu peu d’attention jusqu’à aujourd’hui. Dans ce contexte, l’objectif de ce travail était de mieux comprendre l’implication de la testostérone dans les différences sexuelles observées au niveau de l’électrocardiogramme. En travaillant à partir d’une cohorte de volontaires sains, nous avons tout d’abord confirmé l’existence de différences électrocardiographiques rapportées précédemment dans la littérature. Nous avons de plus noté un segment PR plus long chez les hommes, bien que l’onde P et l’intervalle PR n’étaient pas significativement différents entre les sexes. Par la suite, nous avons évalué l’association de la testostérone avec les différents paramètres de l’électrocardiogramme humain. La testostérone était le plus fortement associée au complexe QRS, au segment ST et à l’intervalle QTc. Nous avons donc examiné la contribution de la testostérone dans les mécanismes responsables des différences sexuelles pour ces trois paramètres. D’après les résultats obtenus, la testostérone ne semblait toutefois pas expliquer ces différences homme-femme. En conclusion, les résultats de cette étude suggèrent que la testostérone n’est pas responsable des différences observées au niveau du complexe QRS, du segment ST et de l’intervalle QTc des hommes et des femmes de notre cohorte. D’autres médiateurs, seuls ou en association avec la testostérone, pourraient jouer un rôle dans l’établissement de ces différences électrocardiographiques associées au sexe.
Resumo:
Nous présentons une méthode hybride pour le résumé de texte, en combinant l'extraction de phrases et l'élagage syntaxique des phrases extraites. L'élagage syntaxique est effectué sur la base d’une analyse complète des phrases selon un parseur de dépendances, analyse réalisée par la grammaire développée au sein d'un logiciel commercial de correction grammaticale, le Correcteur 101. Des sous-arbres de l'analyse syntaxique sont supprimés quand ils sont identifiés par les relations ciblées. L'analyse est réalisée sur un corpus de divers textes. Le taux de réduction des phrases extraites est d’en moyenne environ 74%, tout en conservant la grammaticalité ou la lisibilité dans une proportion de plus de 64%. Étant donné ces premiers résultats sur un ensemble limité de relations syntaxiques, cela laisse entrevoir des possibilités pour une application de résumé automatique de texte.
Resumo:
Les milieux humides remplissent plusieurs fonctions écologiques d’importance et contribuent à la biodiversité de la faune et de la flore. Même s’il existe une reconnaissance croissante sur l’importante de protéger ces milieux, il n’en demeure pas moins que leur intégrité est encore menacée par la pression des activités humaines. L’inventaire et le suivi systématique des milieux humides constituent une nécessité et la télédétection est le seul moyen réaliste d’atteindre ce but. L’objectif de cette thèse consiste à contribuer et à améliorer la caractérisation des milieux humides en utilisant des données satellites acquises par des radars polarimétriques en bande L (ALOS-PALSAR) et C (RADARSAT-2). Cette thèse se fonde sur deux hypothèses (chap. 1). La première hypothèse stipule que les classes de physionomies végétales, basées sur la structure des végétaux, sont plus appropriées que les classes d’espèces végétales car mieux adaptées au contenu informationnel des images radar polarimétriques. La seconde hypothèse stipule que les algorithmes de décompositions polarimétriques permettent une extraction optimale de l’information polarimétrique comparativement à une approche multipolarisée basée sur les canaux de polarisation HH, HV et VV (chap. 3). En particulier, l’apport de la décomposition incohérente de Touzi pour l’inventaire et le suivi de milieux humides est examiné en détail. Cette décomposition permet de caractériser le type de diffusion, la phase, l’orientation, la symétrie, le degré de polarisation et la puissance rétrodiffusée d’une cible à l’aide d’une série de paramètres extraits d’une analyse des vecteurs et des valeurs propres de la matrice de cohérence. La région du lac Saint-Pierre a été sélectionnée comme site d’étude étant donné la grande diversité de ses milieux humides qui y couvrent plus de 20 000 ha. L’un des défis posés par cette thèse consiste au fait qu’il n’existe pas de système standard énumérant l’ensemble possible des classes physionomiques ni d’indications précises quant à leurs caractéristiques et dimensions. Une grande attention a donc été portée à la création de ces classes par recoupement de sources de données diverses et plus de 50 espèces végétales ont été regroupées en 9 classes physionomiques (chap. 7, 8 et 9). Plusieurs analyses sont proposées pour valider les hypothèses de cette thèse (chap. 9). Des analyses de sensibilité par diffusiogramme sont utilisées pour étudier les caractéristiques et la dispersion des physionomies végétales dans différents espaces constitués de paramètres polarimétriques ou canaux de polarisation (chap. 10 et 12). Des séries temporelles d’images RADARSAT-2 sont utilisées pour approfondir la compréhension de l’évolution saisonnière des physionomies végétales (chap. 12). L’algorithme de la divergence transformée est utilisé pour quantifier la séparabilité entre les classes physionomiques et pour identifier le ou les paramètres ayant le plus contribué(s) à leur séparabilité (chap. 11 et 13). Des classifications sont aussi proposées et les résultats comparés à une carte existante des milieux humide du lac Saint-Pierre (14). Finalement, une analyse du potentiel des paramètres polarimétrique en bande C et L est proposé pour le suivi de l’hydrologie des tourbières (chap. 15 et 16). Les analyses de sensibilité montrent que les paramètres de la 1re composante, relatifs à la portion dominante (polarisée) du signal, sont suffisants pour une caractérisation générale des physionomies végétales. Les paramètres des 2e et 3e composantes sont cependant nécessaires pour obtenir de meilleures séparabilités entre les classes (chap. 11 et 13) et une meilleure discrimination entre milieux humides et milieux secs (chap. 14). Cette thèse montre qu’il est préférable de considérer individuellement les paramètres des 1re, 2e et 3e composantes plutôt que leur somme pondérée par leurs valeurs propres respectives (chap. 10 et 12). Cette thèse examine également la complémentarité entre les paramètres de structure et ceux relatifs à la puissance rétrodiffusée, souvent ignorée et normalisée par la plupart des décompositions polarimétriques. La dimension temporelle (saisonnière) est essentielle pour la caractérisation et la classification des physionomies végétales (chap. 12, 13 et 14). Des images acquises au printemps (avril et mai) sont nécessaires pour discriminer les milieux secs des milieux humides alors que des images acquises en été (juillet et août) sont nécessaires pour raffiner la classification des physionomies végétales. Un arbre hiérarchique de classification développé dans cette thèse constitue une synthèse des connaissances acquises (chap. 14). À l’aide d’un nombre relativement réduit de paramètres polarimétriques et de règles de décisions simples, il est possible d’identifier, entre autres, trois classes de bas marais et de discriminer avec succès les hauts marais herbacés des autres classes physionomiques sans avoir recours à des sources de données auxiliaires. Les résultats obtenus sont comparables à ceux provenant d’une classification supervisée utilisant deux images Landsat-5 avec une exactitude globale de 77.3% et 79.0% respectivement. Diverses classifications utilisant la machine à vecteurs de support (SVM) permettent de reproduire les résultats obtenus avec l’arbre hiérarchique de classification. L’exploitation d’une plus forte dimensionalitée par le SVM, avec une précision globale maximale de 79.1%, ne permet cependant pas d’obtenir des résultats significativement meilleurs. Finalement, la phase de la décomposition de Touzi apparaît être le seul paramètre (en bande L) sensible aux variations du niveau d’eau sous la surface des tourbières ouvertes (chap. 16). Ce paramètre offre donc un grand potentiel pour le suivi de l’hydrologie des tourbières comparativement à la différence de phase entre les canaux HH et VV. Cette thèse démontre que les paramètres de la décomposition de Touzi permettent une meilleure caractérisation, de meilleures séparabilités et de meilleures classifications des physionomies végétales des milieux humides que les canaux de polarisation HH, HV et VV. Le regroupement des espèces végétales en classes physionomiques est un concept valable. Mais certaines espèces végétales partageant une physionomie similaire, mais occupant un milieu différent (haut vs bas marais), ont cependant présenté des différences significatives quant aux propriétés de leur rétrodiffusion.