901 resultados para Ultracentrifugation analytique
Resumo:
La cellulose et ses dérivés sont utilisés dans un vaste nombre d’applications incluant le domaine pharmaceutique pour la fabrication de médicaments en tant qu’excipient. Différents dérivés cellulosiques tels que le carboxyméthylcellulose (CMC) et l’hydroxyéthylcellulose (HEC) sont disponibles sur le commerce. Le degré de polymérisation et de modification diffèrent énormément d’un fournisseur à l’autre tout dépendamment de l’origine de la cellulose et de leur procédé de dérivation, leur conférant ainsi différentes propriétés physico-chimiques qui leurs sont propres, telles que la viscosité et la solubilité. Notre intérêt est de développer une méthode analytique permettant de distinguer la différence entre deux sources d’un produit CMC ou HEC. L’objectif spécifique de cette étude de maitrise était l’obtention d’un profil cartographique de ces biopolymères complexes et ce, par le développement d’une méthode de digestion enzymatique donnant les oligosaccharides de plus petites tailles et par la séparation de ces oligosaccharides par les méthodes chromatographiques simples. La digestion fut étudiée avec différents paramètres, tel que le milieu de l’hydrolyse, le pH, la température, le temps de digestion et le ratio substrat/enzyme. Une cellulase de Trichoderma reesei ATCC 26921 fut utilisée pour la digestion partielle de nos échantillons de cellulose. Les oligosaccharides ne possédant pas de groupements chromophores ou fluorophores, ils ne peuvent donc être détectés ni par absorbance UV-Vis, ni par fluorescence. Il a donc été question d’élaborer une méthode de marquage des oligosaccharides avec différents agents, tels que l’acide 8-aminopyrène-1,3,6-trisulfonique (APTS), le 3-acétylamino-6-aminoacridine (AA-Ac) et la phénylhydrazine (PHN). Enfin, l’utilisation de l’électrophorèse capillaire et la chromatographie liquide à haute performance a permis la séparation des produits de digestion enzymatique des dérivés de cellulose. Pour chacune de ces méthodes analytiques, plusieurs paramètres de séparation ont été étudiés.
Resumo:
Les phytochélatines (PC) sont des polypeptides ayant la structure générale, (alpha-Glu-Cys)n-Gly, où n = 2 à 11. Leur synthèse est induite par un grand nombre de végétaux en réponse à une élévation de la concentration du milieu en métaux, en particulier le cadmium (ci-après, Cd). Le but de cette étude a été de développer un outil pour évaluer la biodisponibilité du Cd dans les eaux douces. Pour ce faire, une méthode analytique a été réalisée afin de déterminer les phytochélatines induites dans les algues C. reinhardtii. Celle-ci consiste à utiliser la chromatographie liquide couplée à la spectrométrie de masse en tandem (LCHP-SM/SM) "on-line". L’ionisation des molécules est celle faite par électronébulisation (IEN) (traduction de electrospray ionisation). L’objectif principal de ce mémoire est la validation de cette méthode : la détermination des courbes de calibration et des limites de détection et l'identification d'interférences potentielles. L’utilisation de dithiothreitol (DTT) à une concentration de 25 mM a été nécessaire à la conservation de la forme réduite des phytochélatines. En effet, suite à la validation de la méthode d’analyse des phytochélatines il a été démontré qu’elle représente un potentiel d’application. Ceci dans la mesure où l’induction des phytochélatines (PC2, PC3 et PC4) dans les algues C. reinhardtii a été possible à deux concentrations de Cd (1 x 10-7 M et 1 x 10 6 M) et ce, après plusieurs temps d'induction (1, 2, 4, et 6 h). Ainsi, l’étude de la stabilité des phytochélatines a été réalisée et toutes les températures examinées ont démontré une diminution des phytochélatines analysées par HPLC-ESI-MS/MS. Il se pourrait que la cause de la dégradation des phytochélatines soit physique ou chimique plutôt que bactérienne. Toutefois, un approfondissement au niveau de la purification de la solution d’extraction serait nécessaire à la mise au point de la dite méthode analytique afin de quantifier les phytochélatines dans l’algue C. reinhardtii.
Resumo:
À la suite de certains grands meurtres commis en 1997 et 2000 par des jeunes de 14 et 17 ans, un discours sur les délinquants juvéniles, comme étant plus violents, plus cruels, plus anormaux et plus nombreux que jamais auparavant, s’installait chez les intellectuels et dans les médias japonais. Or , par dérapage analytique, ce discours a été généralisé à tous les jeunes, comme étant des individus dangereux, incompréhensibles, anormaux et potentiellement criminels malgré une certaine normalité apparente, faisant d’eux des « monstres invisibles ». La marginalisation des jeunes par ce discours sur la « nouvelle » jeunesse japonaise et les représentations des délinquants juvéniles « cruels » a fortement marqué la société japonaise, manifestée dans l’opinion publique ainsi que dans son impact socioculturel tant au niveau légal qu’au niveau idéologique. Cette étude présente les débuts, le développement ainsi que les conséquences du discours démonisant la jeunesse des années 2000, en présentant les concepts clés ayant été utilisés comme caractéristiques et arguments de la monstruosité cachée chez les jeunes japonais. Elle démontre parallèlement l’incohérence des représentations de la délinquance juvénile, aggravant le fossé entre la réalité vécue par les sujets, et les causes ainsi que les solutions présentées à leur égard.
Resumo:
L'une des critiques fondamentales adressées au mécanisme de contrôle et de surveillance de la Cour européenne des droits de l'homme en matière électorale tient au risque qu'il portera atteinte à la souveraineté de l'État. En effet, certains auteurs estiment que l'autonomie constitutionnelle de l'État dans le domaine électoral, jusqu'à tout récemment strictement protégée, s'affaiblit sous l'influence de la protection des droits de l'homme dans le système européen. Le présent mémoire a pour but de déterminer les conditions imposées aux autorités étatiques par la Cour européenne des droits de l'homme en vue d'assurer l'exercice efficace du droit à des élections libres. Ensuite, il analysera les effets de ces conditions sur la souveraineté des États parties à la Convention européenne des droits de l'homme. Notre étude s'intéresse, dans un premier temps, à l'examen du principe de la souveraineté de l'État et de son évolution progressive sous l'influence des droits de l'homme. Dans un deuxième temps, elle présentera le droit à des élections libres et ses manifestations théoriques et jurisprudentielles. L'étude des affaires tranchées par la Cour européenne permettra de remarquer que la déférence qui est accordée à la souveraineté des États s'accompagne d'une certaine limitation de la marge d'appréciation des autorités étatiques en cas de privation de l'exercice efficace du droit à des élections libres. Ensuite, les acquis théoriques et conceptuels seront appliqués à l'étude des restrictions électorales relevant des mesures législatives, administratives et judiciaires des États ainsi que des conditions imposées par la Cour européenne. À cet égard, l'analyse de ces conditions nous permettra de saisir l'étendue de la limitation de la liberté d'action des États en matière électorale. Cette recension analytique nous permettra de conclure que le mécanisme de contrôle de la Cour européenne entraîne de multiples effets limitatifs sur la souveraineté des États.
Resumo:
Résumé Depuis le début des années 1990, la recherche sur le développement régional a pris une importance considérable dans les disciplines de l’économie et de la géographie dans la plupart des pays. De nombreuses études ont été consacrées à ce sujet et l’on constate une approche analytique de plus en plus sophistiquée. Que les économies pauvres ont tendance à converger vers les pays riches, ou bien à diverger au fil du temps est une question qui a attiré l'attention des décideurs et des universitaires depuis quelques décennies. Convergence ou de divergence économique est un sujet d'intérêt et de débat, non seulement pour valider ou non les deux modèles principaux de croissance qui sont considérés comme concurrent (l’approche néo-classique et celle des approches de croissance endogène), mais aussi pour ses implications pour les publiques politiques. En se basant sur une analyse des politiques de développement régional et des analyses statistiques de la convergence et des disparités régionales, les objectifs de cette thèse sont de tenter de fournir une explication des différents processus et des modèles de développement économique régional poursuivis dans le cas de territoires immenses en utilisant le Canada et la Chine comme études de cas, d'entreprendre une analyse des différents facteurs et des forces motrices qui sous-tendent le développement régional dans ces deux pays, et d'explorer à la fois les réussites et les échecs apparents dans les politiques de développement régional en comparant et contrastant les expériences de développement régional et les modèles de ces deux pays. A fin d'atteindre cet objectif, la recherche utilise une approche multi-scalaire et des méthodes de mesure multidimensionnelle dans le cadre des analyses sur les disparités « régionales » entre les macro régions (sous-ensembles de provinces) des deux pays, des provinces et des régions urbaines sélectionnées, dans le but ultime d’identifier des problèmes existants en termes de développement régional et de pouvoir proposer des solutions. Les étapes principales de la recherche sont : 1. La cueillette des données statistiques pour le Canada et la Chine (incluant les provinces de Québec et de Xinjiang) pour une gamme d’indicateurs (voir ci-dessous). 2. D’entreprendre une analyse de chaque dimension dans les deux juridictions: Population (p.ex. composition, structure, changement); Ressources (p. ex. utilisation, exploitation de l’énergie); Environnement (p.ex. la pollution); et le Développement socioéconomique (p.ex. le développement et la transformation des secteurs clé, et les modèles de développement rural et urbain), et les disparités changeantes par rapport à ces dimensions. 3. La définition d’une typologie de différents types de région en fonction de leurs trajectoires de développement, ce qui servira pour critiquer l’hypothèse centre-périphérie. 4. Le choix d’une région métropolitaine dans chaque juridiction (province). 5. D’entreprendre une analyse temporelle des événements clé (politiques, investissements) dans chaque région et les facteurs impliqués dans chaque événement, en utilisant l’information documentaire générale et des agences institutionnelles impliqués actuellement et dans un passée récent. Cette étude a tenté d'expliquer les schémas et les processus des deux économies, ainsi que la présentation d'études de cas qui illustrent et examinent les différences dans les deux économies à partir de l’échelle nationale jusqu’au niveau régional et provincial et aussi pour certaines zones urbaines. Cette étude a essayé de répondre aux questions de recherche comme: Est-il vrai que les pays avec des plus grandes territoires sont associés avec des plus grandes disparités interrégionales? Quel est le résultat des comparaisons entre pays développés et pays en développement? Quels sont les facteurs les plus importants dans le développement économique de vastes territoires dans les pays développés et pays en développement? Quel est le mécanisme de convergence et de divergence dans les pays développés et, respectivement, les pays en développement? Dans l'introduction à la thèse, le cadre général de l'étude est présenté, suivie dans le chapitre 1 d'une discussion sur les théories et les concepts utilisés dans la littérature théorique principale qui est pertinent à l'étude. Le chapitre 2 décrit la méthodologie de recherche. Le chapitre 3 présente une vue d'ensemble des politiques de développement économique régional et les programmes du Canada et de la Chine dans des périodes différentes à différentes échelles. Au chapitre 4, la convergence des deux pays à l'échelle nationale et la convergence provinciale pour chaque pays sont examinés en utilisant différentes méthodes de mesure telles que les méthodes traditionnelles, la convergence bêta et la convergence sigma. Dans le chapitre le plus complexe, le chapitre 5, les analyses comparatives sont présentées à l'aide de données statistiques, à partir des analyses des cas régionaux et provinciaux retenus des deux pays. Au chapitre 6, ces dispositions sont complétées par une analyse des régions urbaines choisies, qui permet également des aperçus sur les régions les plus périphériques. Dans la recherche proposée pour cette thèse, la politique, la population, le revenu, l'emploi, la composition industrielle, l'investissement, le commerce et le facteur de la migration sont également pris en compte comme facteurs importants de l'analyse régionale compte tenu de la superficie du territoire des deux pays et les différences de population entre eux. Cette thèse a évalué dans quelle mesure les politiques gouvernementales ont réussi à induire la convergence régionale ou ont encore ont creusé davantage les disparités régionales, ce qui implique nécessairement une évaluation de la durabilité des patrons et des programmes de développement régional. Cette étude a également mis l'accent sur les disparités régionales et la politique de développement régional, les comparaisons entre pays, pour mesurer la convergence entre les pays et entre les régions, y compris l'analyse spatiale, d'identifier les facteurs les plus actifs tels que la population, les ressources, la politique, l'urbanisation, les migrations, l'ouverture économique et leurs différents rôles dans le développement économique de ces grands territoires (au Canada et Chine). Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionales et les disparités régionales dans les deux économies. L'approche adoptée a révélé les différentes mosaïques complexes du développement régional dans les deux pays. Les résultats de cette étude ont démontré que la disparité en termes de revenu régional est une réalité dans chaque zone géographique, et que les causes sont nombreuses et complexes. Les deux économies ont certains parallèles dans la mise en œuvre des politiques de développement économique régional, mais il existe des différences importantes aussi et elles se sont développées à différentes vitesses. Les deux économies se sont développées depuis la Seconde Guerre mondiale, mais la Chine a connu une croissance rapide que le Canada comme témoignent de nombreux indicateurs depuis 1980. Cependant, la Chine est maintenant confrontée à un certain nombre de problèmes économiques et sociaux, y compris les disparités régionales marquées, un fossé toujours croissant entre les revenus ruraux et urbains, une population vieillissante, le chômage, la pauvreté et la dégradation rapide de l'environnement avec toujours plus de demandes en énergie. Le développement économique régional en Chine est plus déséquilibré. Le Canada accuse un degré de disparités régionales et provinciales moins important que la Chine. Dans les cas provinciaux, il existe d'importantes différences et de disparités dans la structure économique et spatiale du Québec et du Xinjiang. Les disparités infra provinciales sont plus grandes que celles à l’échelle des provinces et des grandes régions (des sous-ensembles de provinces). Les mécanismes de convergence et de divergence dans les deux pays sont différents. Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionale et les disparités régionales dans les deux économies. Cette étude démontre également que l'urbanisation (les métropoles et les villes) s’avère être le facteur le plus actif et contribue à l'économie régionale dans ces grands territoires. L'ouverture a joué un rôle important dans les économies des deux pays. La migration est un facteur majeur dans la stimulation de l'économie des deux pays mais de façons différentes. Les résultats empiriques démontrent que les disparités régionales ne peuvent pas être évitées et elles existent presque partout. Il n'y a pas une formule universelle et de politiques spécifiques sont de mise pour chaque région. Mais il semble possible pour les décideurs politiques nationaux et régionaux d’essayer de maintenir l'écart à une échelle raisonnable pour éviter l'instabilité sociale.
Resumo:
Avec la hausse mondiale de la fréquence des floraisons de cyanobactéries (CB), dont certaines produisent des cyanotoxines (CT), le développement d’une méthode de détection/quantification rapide d’un maximum de CT s’impose. Cette méthode permettrait de faire un suivi quotidien de la toxicité de plans d’eau contaminés par des CB et ainsi d’émettre rapidement des avis d’alerte appropriés afin de protéger la santé publique. Une nouvelle technologie utilisant la désorption thermique induite par diode laser (LDTD) couplée à l’ionisation chimique sous pression atmosphérique (APCI) et reliée à la spectrométrie de masse en tandem (MS/MS) a déjà fait ses preuves avec des temps d'analyse de l’ordre de quelques secondes. Les analytes sont désorbés par la LDTD, ionisés en phase gazeuse par APCI et détectés par la MS/MS. Il n’y a donc pas de séparation chromatographique, et la préparation de l’échantillon avant l’analyse est minimale selon la complexité de la matrice contenant les analytes. Parmi les quatre CT testées (microcystine-LR, cylindrospermopsine, saxitoxine et anatoxine-a (ANA-a)), seule l’ANA-a a généré une désorption significative nécessaire au développement d’une méthode analytique avec l’interface LDTD-APCI. La forte polarité ou le poids moléculaire élevé des autres CT empêche probablement leur désorption. L’optimisation des paramètres instrumentaux, tout en tenant compte de l’interférence isobarique de l’acide aminé phénylalanine (PHE) lors de la détection de l’ANA-a par MS/MS, a généré une limite de détection d’ANA-a de l’ordre de 1 ug/L. Celle-ci a été évaluée à partir d’une matrice apparentée à une matrice réelle, démontrant qu’il serait possible d’utiliser la LDTD pour effectuer le suivi de l’ANA-a dans les eaux naturelles selon les normes environnementales applicables (1 à 12 ug/L). Il a été possible d’éviter l’interférence isobarique de la PHE en raison de sa très faible désorption avec l’interface LDTD-APCI. En effet, il a été démontré qu’une concentration aussi élevée que 500 ug/L de PHE ne causait aucune interférence sur le signal de l’ANA-a.
Resumo:
Ancrée dans le domaine de la didactique des mathématiques, notre thèse cible le « travail de l’erreur » effectué par trois enseignants dans leur première année de carrière. Libérés des contraintes associées au système de formation initiale, ces sujets assument pleinement leur nouveau rôle au sein de la classe ordinaire. Ils se chargent, entre autres, de l’enseignement de l’arithmétique et, plus précisément, de la division euclidienne. Parmi leurs responsabilités se trouvent le repérage et l’intervention sur les procédures erronées. Le « travail de l’erreur » constitue l’expression spécifique désignant cette double tâche (Portugais 1995). À partir d’un dispositif de recherche combinant les méthodes d’observation et d’entrevue, nous documentons des séances d’enseignement afin de dégager les situations où nos maîtres du primaire identifient des erreurs dans les procédures algorithmiques des élèves et déploient, subséquemment, des stratégies d’intervention. Nous montrons comment ces deux activités sont coordonnées en décrivant les choix, décisions et actions mises en œuvre par nos sujets. Il nous est alors possible d’exposer l’organisation de la conduite de ces jeunes enseignants en fonction du traitement effectif de l’erreur arithmétique. En prenant appui sur la théorie de champs conceptuels (Vergnaud 1991), nous révélons l’implicite des connaissances mobilisées par nos sujets et mettons en relief les mécanismes cognitifs qui sous-tendent cette activité professionnelle. Nous pouvons ainsi témoigner, du moins en partie, du travail de conceptualisation réalisé in situ. Ce travail analytique permet de proposer l’existence d’un schème du travail de l’erreur chez ces maîtres débutants, mais aussi de spécifier sa nature et son fonctionnement. En explorant le versant cognitif de l’activité enseignante, notre thèse aborde une nouvelle perspective associée au thème du repérage et de l’intervention sur l’erreur de calcul de divisions en colonne.
Resumo:
Le but de cette étude est d’adopter une intervention systémique visant à faciliter la communication entre les infirmières1 et les familles2 dans un contexte de soins intensifs (SI) en traumatologie. Cette recherche prend en compte la réalité et les besoins du milieu à l’étude grâce au devis participatif retenu. Le cadre de référence est composé de l’approche systémique familiale de Wright et Leahey (2005) ainsi que de la théorie du caring de Jean Watson (1979). La collecte des données a été inspirée du parcours de recherche en spirale de Lehoux, Levy et Rodrigue (1995). Cinq entrevues ont été menées auprès de membres de familles ainsi que trois groupes de discussion (focus groups) auprès d’infirmières. L’analyse des données a été effectuée selon le Modèle de Huberman et Miles (2003) qui préconise une démarche analytique continue et interactive. Les résultats obtenus révèlent un changement de pratique selon dix interventions systémiques infirmières spécifiques permettant de faciliter la communication avec les familles aux soins intensifs en traumatologie et soulignent l’importance d’agir sur le plan du contexte, de la relation et du contenu liés au processus de communication. De plus, ils permettent de démontrer un réel changement de pratique dans le milieu retenu pour l’étude.
Resumo:
La thèse présente une description géométrique d’un germe de famille générique déployant un champ de vecteurs réel analytique avec un foyer faible à l’origine et son complexifié : le feuilletage holomorphe singulier associé. On montre que deux germes de telles familles sont orbitalement analytiquement équivalents si et seulement si les germes de familles de difféomorphismes déployant la complexification de leurs fonctions de retour de Poincaré sont conjuguées par une conjugaison analytique réelle. Le “caractère réel” de la famille correspond à sa Z2-équivariance dans R^4, et cela s’exprime comme l’invariance du plan réel sous le flot du système laquelle, à son tour, entraîne que l’expansion asymptotique de la fonction de Poincaré est réelle quand le paramètre est réel. Le pullback du plan réel après éclatement par la projection monoidal standard intersecte le feuilletage en une bande de Möbius réelle. La technique d’éclatement des singularités permet aussi de donner une réponse à la question de la “réalisation” d’un germe de famille déployant un germe de difféomorphisme avec un point fixe de multiplicateur égal à −1 et de codimension un comme application de semi-monodromie d’une famille générique déployant un foyer faible d’ordre un. Afin d’étudier l’espace des orbites de l’application de Poincaré, nous utilisons le point de vue de Glutsyuk, puisque la dynamique est linéarisable auprès des points singuliers : pour les valeurs réels du paramètre, notre démarche, classique, utilise une méthode géométrique, soit un changement de coordonée (coordonée “déroulante”) dans lequel la dynamique devient beaucoup plus simple. Mais le prix à payer est que la géométrie locale du plan complexe ambiante devient une surface de Riemann, sur laquelle deux notions de translation sont définies. Après avoir pris le quotient par le relèvement de la dynamique nous obtenons l’espace des orbites, ce qui s’avère être l’union de trois tores complexes plus les points singuliers (l’espace résultant est non-Hausdorff). Les translations, le caractère réel de l’application de Poincaré et le fait que cette application est un carré relient les différentes composantes du “module de Glutsyuk”. Cette propriété implique donc le fait qu’une seule composante de l’invariant Glutsyuk est indépendante.
Resumo:
La cartographie peptidique est une méthode qui permet entre autre d’identifier les modifications post-traductionnelles des protéines. Elle comprend trois étapes : 1) la protéolyse enzymatique, 2) la séparation par électrophorèse capillaire (CE) ou chromatographie en phase liquide à haute performance (HPLC) des fragments peptidiques et 3) l’identification de ces derniers. Cette dernière étape peut se faire par des méthodes photométriques ou par spectrométrie de masse (MS). Au cours de la dernière décennie, les enzymes protéolytiques immobilisées ont acquis une grande popularité parce qu’elles peuvent être réutilisées et permettent une digestion rapide des protéines due à un rapport élevé d’enzyme/substrat. Pour étudier les nouvelles techniques d’immobilisation qui ont été développées dans le laboratoire du Professeur Waldron, la cartographie peptidique par CE est souvent utilisée pour déterminer le nombre total de peptides détectés et leurs abondances. La CE nous permet d’avoir des séparations très efficaces et lorsque couplée à la fluorescence induite par laser (LIF), elle donne des limites de détection qui sont 1000 fois plus basses que celles obtenues avec l’absorbance UV-Vis. Dans la méthode typique, les peptides venant de l’étape 1) sont marqués avec un fluorophore avant l’analyse par CE-LIF. Bien que la sensibilité de détection LIF puisse approcher 10-12 M pour un fluorophore, la réaction de marquage nécessite un analyte dont la concentration est d’au moins 10-7 M, ce qui représente son principal désavantage. Donc, il n’est pas facile d’étudier les enzymes des peptides dérivés après la protéolyse en utilisant la technique CE-LIF si la concentration du substrat protéique initial est inférieure à 10-7 M. Ceci est attribué à la dilution supplémentaire lors de la protéolyse. Alors, afin d’utiliser le CE-LIF pour évaluer l’efficacité de la digestion par enzyme immobilisée à faible concentration de substrat,nous proposons d’utiliser des substrats protéiques marqués de fluorophores pouvant être purifiés et dilués. Trois méthodes de marquage fluorescent de protéine sont décrites dans ce mémoire pour étudier les enzymes solubles et immobilisées. Les fluorophores étudiés pour le marquage de protéine standard incluent le naphtalène-2,3-dicarboxaldéhyde (NDA), la fluorescéine-5-isothiocyanate (FITC) et l’ester de 6-carboxyfluorescéine N-succinimidyl (FAMSE). Le FAMSE est un excellent réactif puisqu’il se conjugue rapidement avec les amines primaires des peptides. Aussi, le substrat marqué est stable dans le temps. Les protéines étudiées étaient l’-lactalbumine (LACT), l’anhydrase carbonique (CA) et l’insuline chaîne B (INB). Les protéines sont digérées à l’aide de la trypsine (T), la chymotrypsine (CT) ou la pepsine (PEP) dans leurs formes solubles ou insolubles. La forme soluble est plus active que celle immobilisée. Cela nous a permis de vérifier que les protéines marquées sont encore reconnues par chaque enzyme. Nous avons comparé les digestions des protéines par différentes enzymes telles la chymotrypsine libre (i.e., soluble), la chymotrypsine immobilisée (i.e., insoluble) par réticulation avec le glutaraldéhyde (GACT) et la chymotrypsine immobilisée sur billes d’agarose en gel (GELCT). Cette dernière était disponible sur le marché. Selon la chymotrypsine utilisée, nos études ont démontré que les cartes peptidiques avaient des différences significatives selon le nombre de pics et leurs intensités correspondantes. De plus, ces études nous ont permis de constater que les digestions effectuées avec l’enzyme immobilisée avaient une bonne reproductibilité. Plusieurs paramètres quantitatifs ont été étudiés afin d’évaluer l’efficacité des méthodes développées. La limite de détection par CE-LIF obtenue était de 3,010-10 M (S/N = 2,7) pour la CA-FAM digérée par GACT et de 2,010-10 M (S/N = 4,3) pour la CA-FAM digérée par la chymotrypsine libre. Nos études ont aussi démontrées que la courbe d’étalonnage était linéaire dans la région de travail (1,0×10-9-1,0×10-6 M) avec un coefficient de corrélation (R2) de 0,9991.
Resumo:
Notre thèse s’attache à définir certains rapports possibles entre le cinéma et le politique ou, plus précisément, entre le cinéma et le concept pratique de résistance. Il existe une théorie de la résistance, soit sous la forme d’une cartographie du pouvoir moléculaire (M. Foucault), soit sous la forme d’une analytique de la résistance (F. Proust). Il existe également une théorie de la résistance cinématographique, soit comme sociologie ou histoire de l’action politique par le cinéma (cinéma de la Résistance, cinéma militant), soit comme une sémiotique des formes et des genres marginaux (cinéma expérimental, cinéma des avant-gardes). Suivant une direction tracée par Serge Daney et Gilles Deleuze, nous croyons qu’il faut poser autrement le problème : si « le politique est affaire de perception », alors la résistance est d’abord une invention de visibilité et d’audibilité. En ce sens, la résistance cinématographique est une exploration de ce que peut le cinéma, tant d’un point de vue esthétique, éthique, que politique. D’où notre hypothèse, qui est double : d’une part, cette invention de visibilité, cette création de potentiel n’est peut-être possible qu’en passant par un ré-enchaînement anachronique d’une déformation plastique, narrative et audiovisuelle à une autre, c’est-à-dire d’une survivance à une autre. D’autre part, nous croyons qu’une forme esthétique est en soi matière politique et manière de politique, et qu’elle implique également une éthique venant brasser notre propre subjectivité (de cinéaste, de spectateur, de citoyen, etc.). Or, pour saisir cette invention de visibilité inhérente au cinéma, il faut en passer par une généalogie de certaines alliances théoriques et pratiques parmi les plus importantes. Le cas de trois machines autopoïétiques nous intéressera tout particulièrement, trois constellations d’œuvres et de pensées qui débordent le nom propre des « Auteurs » convoqués : Eisenstein et les résistances méthodologiques ; Syberberg et les résistances plastiques ou audiovisuelles (à travers la seule figure du hors-champ) ; Welles et les résistances esth/éthico-politiques. Ainsi, une telle chaîne généalogique nous permettra de mieux mesurer l’efficace de ces résistances, mais sans désir de systématisation ni constitution d’une Théorie de la résistance cinématographique.
Resumo:
Depuis quelques années, la recherche dans le domaine des réseaux maillés sans fil ("Wireless Mesh Network (WMN)" en anglais) suscite un grand intérêt auprès de la communauté des chercheurs en télécommunications. Ceci est dû aux nombreux avantages que la technologie WMN offre, telles que l'installation facile et peu coûteuse, la connectivité fiable et l'interopérabilité flexible avec d'autres réseaux existants (réseaux Wi-Fi, réseaux WiMax, réseaux cellulaires, réseaux de capteurs, etc.). Cependant, plusieurs problèmes restent encore à résoudre comme le passage à l'échelle, la sécurité, la qualité de service (QdS), la gestion des ressources, etc. Ces problèmes persistent pour les WMNs, d'autant plus que le nombre des utilisateurs va en se multipliant. Il faut donc penser à améliorer les protocoles existants ou à en concevoir de nouveaux. L'objectif de notre recherche est de résoudre certaines des limitations rencontrées à l'heure actuelle dans les WMNs et d'améliorer la QdS des applications multimédia temps-réel (par exemple, la voix). Le travail de recherche de cette thèse sera divisé essentiellement en trois principaux volets: le contrôle d‟admission du trafic, la différentiation du trafic et la réaffectation adaptative des canaux lors de la présence du trafic en relève ("handoff" en anglais). Dans le premier volet, nous proposons un mécanisme distribué de contrôle d'admission se basant sur le concept des cliques (une clique correspond à un sous-ensemble de liens logiques qui interfèrent les uns avec les autres) dans un réseau à multiples-sauts, multiples-radios et multiples-canaux, appelé RCAC. Nous proposons en particulier un modèle analytique qui calcule le ratio approprié d'admission du trafic et qui garantit une probabilité de perte de paquets dans le réseau n'excédant pas un seuil prédéfini. Le mécanisme RCAC permet d‟assurer la QdS requise pour les flux entrants, sans dégrader la QdS des flux existants. Il permet aussi d‟assurer la QdS en termes de longueur du délai de bout en bout pour les divers flux. Le deuxième volet traite de la différentiation de services dans le protocole IEEE 802.11s afin de permettre une meilleure QdS, notamment pour les applications avec des contraintes temporelles (par exemple, voix, visioconférence). À cet égard, nous proposons un mécanisme d'ajustement de tranches de temps ("time-slots"), selon la classe de service, ED-MDA (Enhanced Differentiated-Mesh Deterministic Access), combiné à un algorithme efficace de contrôle d'admission EAC (Efficient Admission Control), afin de permettre une utilisation élevée et efficace des ressources. Le mécanisme EAC prend en compte le trafic en relève et lui attribue une priorité supérieure par rapport au nouveau trafic pour minimiser les interruptions de communications en cours. Dans le troisième volet, nous nous intéressons à minimiser le surcoût et le délai de re-routage des utilisateurs mobiles et/ou des applications multimédia en réaffectant les canaux dans les WMNs à Multiples-Radios (MR-WMNs). En premier lieu, nous proposons un modèle d'optimisation qui maximise le débit, améliore l'équité entre utilisateurs et minimise le surcoût dû à la relève des appels. Ce modèle a été résolu par le logiciel CPLEX pour un nombre limité de noeuds. En second lieu, nous élaborons des heuristiques/méta-heuristiques centralisées pour permettre de résoudre ce modèle pour des réseaux de taille réelle. Finalement, nous proposons un algorithme pour réaffecter en temps-réel et de façon prudente les canaux aux interfaces. Cet algorithme a pour objectif de minimiser le surcoût et le délai du re-routage spécialement du trafic dynamique généré par les appels en relève. Ensuite, ce mécanisme est amélioré en prenant en compte l‟équilibrage de la charge entre cliques.
Resumo:
La fumée du tabac est un aérosol extrêmement complexe constitué de milliers de composés répartis entre la phase particulaire et la phase vapeur. Il a été démontré que les effets toxicologiques de cette fumée sont associés aux composés appartenant aux deux phases. Plusieurs composés biologiquement actifs ont été identifiés dans la fumée du tabac; cependant, il n’y a pas d’études démontrant la relation entre les réponses biologiques obtenues via les tests in vitro ou in vivo et les composés présents dans la fumée entière du tabac. Le but de la présente recherche est de développer des méthodes fiables et robustes de fractionnement de la fumée à l’aide de techniques de séparation analytique et de techniques de détection combinés à des essais in vitro toxicologiques. Une étude antérieure réalisée par nos collaborateurs a démontré que, suite à l’étude des produits de combustion de douze principaux composés du tabac, l’acide chlorogénique s’est avéré être le composé le plus cytotoxique selon les test in vitro du micronoyau. Ainsi, dans cette étude, une méthode par chromatographie préparative en phase liquide a été développée dans le but de fractionner les produits de combustion de l’acide chlorogénique. Les fractions des produits de combustion de l’acide chlorogénique ont ensuite été testées et les composés responsables de la toxicité de l’acide chlorogénique ont été identifiés. Le composé de la sous-fraction responsable en majeure partie de la cytoxicité a été identifié comme étant le catéchol, lequel fut confirmé par chromatographie en phase liquide/ spectrométrie de masse à temps de vol. Des études récentes ont démontré les effets toxicologiques de la fumée entière du tabac et l’implication spécifique de la phase vapeur. C’est pourquoi notre travail a ensuite été focalisé principalement à l’analyse de la fumée entière. La machine à fumer Borgwaldt RM20S® utilisée avec les chambres d’exposition cellulaire de British American Tobacco permettent l’étude in vitro de l’exposition de cellules à différentes concentrations de fumée entière du tabac. Les essais biologiques in vitro ont un degré élevé de variabilité, ainsi, il faut prendre en compte toutes les autres sources de variabilité pour évaluer avec précision la finalité toxicologique de ces essais; toutefois, la fiabilité de la génération de la fumée de la machine n’a jamais été évaluée jusqu’à maintenant. Nous avons donc déterminé la fiabilité de la génération et de la dilution (RSD entre 0,7 et 12 %) de la fumée en quantifiant la présence de deux gaz de référence (le CH4 par détection à ionisation de flamme et le CO par absorption infrarouge) et d’un composé de la phase particulaire, le solanesol (par chromatographie en phase liquide à haute performance). Ensuite, la relation entre la dose et la dilution des composés de la phase vapeur retrouvée dans la chambre d’exposition cellulaire a été caractérisée en utilisant une nouvelle technique d’extraction dite par HSSE (Headspace Stir Bar Sorptive Extraction) couplée à la chromatographie en phase liquide/ spectrométrie de masse. La répétabilité de la méthode a donné une valeur de RSD se situant entre 10 et 13 % pour cinq des composés de référence identifiés dans la phase vapeur de la fumée de cigarette. La réponse offrant la surface maximale d’aire sous la courbe a été obtenue en utilisant les conditions expérimentales suivantes : intervalle de temps d’exposition/ désorption de 10 0.5 min, température de désorption de 200°C pour 2 min et température de concentration cryogénique (cryofocussing) de -75°C. La précision de la dilution de la fumée est linéaire et est fonction de l’abondance des analytes ainsi que de la concentration (RSD de 6,2 à 17,2 %) avec des quantités de 6 à 450 ng pour les composés de référence. Ces résultats démontrent que la machine à fumer Borgwaldt RM20S® est un outil fiable pour générer et acheminer de façon répétitive et linéaire la fumée de cigarette aux cultures cellulaires in vitro. Notre approche consiste en l’élaboration d’une méthodologie permettant de travailler avec un composé unique du tabac, pouvant être appliqué à des échantillons plus complexes par la suite ; ex : la phase vapeur de la fumée de cigarette. La méthodologie ainsi développée peut potentiellement servir de méthode de standardisation pour l’évaluation d’instruments ou de l’identification de produits dans l’industrie de tabac.
Resumo:
La méthode de projection et l'approche variationnelle de Sasaki sont deux techniques permettant d'obtenir un champ vectoriel à divergence nulle à partir d'un champ initial quelconque. Pour une vitesse d'un vent en haute altitude, un champ de vitesse sur une grille décalée est généré au-dessus d'une topographie donnée par une fonction analytique. L'approche cartésienne nommée Embedded Boundary Method est utilisée pour résoudre une équation de Poisson découlant de la projection sur un domaine irrégulier avec des conditions aux limites mixtes. La solution obtenue permet de corriger le champ initial afin d'obtenir un champ respectant la loi de conservation de la masse et prenant également en compte les effets dûs à la géométrie du terrain. Le champ de vitesse ainsi généré permettra de propager un feu de forêt sur la topographie à l'aide de la méthode iso-niveaux. L'algorithme est décrit pour le cas en deux et trois dimensions et des tests de convergence sont effectués.
Resumo:
Le présent projet vise à documenter la nécessité d’augmenter notre connaissance de la présence des contaminants organiques tels que les médicaments dans l’environnement et d’évaluer leur devenir environnemental. On a étudié la présence de composés pharmaceutiques dans différents échantillons d'eau. On a focalisé nos efforts spécialement sur les échantillons d'eau de l'usine d'épuration de la Ville de Montréal et ses effluents, les eaux de surface avoisinantes et l’eau du robinet dans la région de Montréal. Pour ce faire, on a tout d’abord développé deux méthodes analytiques automatisées basées sur la chromatographie liquide avec extraction en phase solide (SPE) couplée à la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). On a également étudié les performances des trois techniques d'ionisation à pression atmosphérique (API), pour ensuite les utiliser dans la méthode analytique développée. On a démontré que l'ionisation par électronébulisation (ESI) est une méthode d'ionisation plus efficace pour l'analyse des contaminants pharmaceutiques dans des échantillons de matrices très complexes comme les eaux usées. Une première méthode analytique SPE couplée à la LC-MS/MS a été développée et validée pour l'étude des échantillons complexes provenant de l'usine d'épuration de la Ville de Montréal et des eaux de surface près de l'usine. Cinq médicaments de prescription ont été étudiés: le bézafibrate (un régulateur de lipides), le cyclophosphamide et le méthotrexate (deux agents anticancéreux), l'orlistat (un agent anti-obésité) et l’énalapril (utilisé dans le traitement de l'hypertension). La plupart de ces drogues sont excrétées par le corps humain et rejetées dans les eaux usées domestiques en faisant par la suite leur chemin vers les usines municipales de traitement des eaux usées. On a pu démontrer qu'il y a un faible taux d’élimination à l'usine d'épuration pour le bézafibrate et l'énalapril. Ces deux composés ont aussi été détectés dans les eaux de surface sur un site à proximité immédiate de la décharge de l’effluent de la station d'épuration. i En observant la nécessité de l'amélioration des limites de détection de la première méthode analytique, une deuxième méthode a été développée. Pour la deuxième méthode, un total de 14 contaminants organiques, incluant trois agents anti-infectieux (clarithromycin, sulfaméthoxazole et triméthoprime), un anticonvulsant (carbamazépine) et son produit de dégradation (10,11-dihydrocarbamazépine), l'agent antihypertensif (enalapril), deux antinéoplastiques utilisés en chimiothérapie (cyclophosphamide et méthotrexate), des herbicides (atrazine, cyanazine, et simazine) et deux produits de transformation de l’atrazine (deséthylatrazine et déisopropylatrazine) ainsi qu’un agent antiseptique (triclocarban). Ces produits ont été quantifiés dans les eaux de surface ainsi que dans l’eau du robinet. L'amélioration des limites de détection pour cette méthode a été possible grâce à la charge d'un volume d'échantillon supérieur à celui utilisé dans la première méthode (10 mL vs 1 mL). D'autres techniques de confirmation, telles que les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle et la mesure des masses exactes par spectrométrie de masse à temps d’envol, ont été explorées. L'utilisation d'un analyseur de masse à temps d’envol a permis la confirmation de 6 des 14 analytes. Finalement, étant donné leur haute toxicité et pour évaluer leur persistance et leur transformation au niveau du traitement des eaux potables, la cinétique d'oxydation du cyclophosphamide et de méthotrexate avec l'ozone moléculaire et des radicaux OH a été étudiée. Les constantes de dégradation avec l'ozone moléculaire ont été calculées et la qualité de l'eau après traitement a pu être évaluée. Le rendement du processus d'ozonation a été amélioré pour la cyclophosphamide dans les eaux naturelles, en raison de la combinaison de réactions directes et indirectes. Cette étude a montré que l'ozone est très efficace pour oxyder le méthotrexate mais que le cyclophosphamide serait trop lent à s’oxyder pour un traitement efficace aux conditions usuelles de traitement de l’eau potable.