892 resultados para Clef analytique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche a comme objectif l’étude d’un des thèmes clef dans la vaste œuvre du poète et essayiste mexicain Octavio Paz (1914-1998) : les analogies entre l’érotisme, le poème et le sacré comme chemins ou voies d’union et de réconciliation humaine, idée qui est particulièrement renforcée dans son œuvre à partir des voyages et du séjour en Orient –spécialement en Inde– entre 1951 et 1968. Pendant la période nommée « cycle indien » (‘ciclo hindú’), Paz s’est intéressé aux différentes traditions de la pensée orientale, particulièrement le bouddhisme, et surtout son orientation tantrique. Ce mémoire analyse les apports les plus significatifs du bouddhisme à l’œuvre de Paz. À partir de l’étude de concepts comme la vacuité, le silence, l’autre bord (‘otra orilla’), l’union extatique transcendante et la libération, ce mémoire soutient que Paz a approfondi les analogies entre l’érotisme, la poésie et le sacré en ne les concevant pas seulement comme expériences de réconciliation mais en les menant au-delà, au plan transcendental, à partir de l’union extatique dans la vacuité. Même si ce mémoire tient compte d’un grand nombre d’œuvres d’Octavio Paz, qui vont de El arco y la lira (1956) à Vislumbres de la India (1995), une attention particulière est dédiée à deux textes qui sont les plus représentatifs du résultat de sa rencontre avec l’Orient, Ladera este (1969) et El mono gramático (1974), dans lesquels il est possible d’observer les analogies que Paz établit entre l’érotisme, le poème, et le bouddhisme tantrique à partir de l’expérience de l’altérité (‘otredad’), qui propose à l’être humain la recherche de son ‘autre’ pour se réconcilier dans l’unité, et de l’expérience de dissipation dans la vacuité. La conclusion générale de l’étude souligne que l’érotisme, le poème, et le bouddhisme tantrique se proposent dans l’œuvre de Octavio Paz comme trois chemins parallèles de révélation par lesquels l’être humain peut accéder à sa plénitude, état manifeste dans l’expérience extatique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s’interroge sur le phénomène du jeune téléspectateur contemporain. Je questionne cette « réalité », qui fait l’objet de discours et de pratiques sociales au quotidien. L’idée de l’existence « objective » de l’enfant téléspectateur depuis l’avènement de la télévision est si fertile, qu’elle a même contribué au développement d’un sous-domaine de recherche en communication : la communication jeunesse. J’inclus également ce sous-domaine dans la problématique. Ce faisant, je tente d’esquisser une théorisation de l’enfant téléspectateur, en le comprenant comme une formation discursive et sociale. Suivant le point de vue de l’analyse de discours de Michel Foucault (1969), j’axe son étude en articulant deux éléments qui forment les objets sociaux : le régime de vérité et les formations discursives. Ainsi, je réfléchis au jeune téléspectateur comme objet de savoir et de vérité, et comme fruit d’un ensemble de formations discursives. J’ancre empiriquement le questionnement du jeune téléspectateur contemporain dans le Chili « post-1990 ». Je propose une approche méthodologique et analytique me permettant de rendre compte de l’articulation d’éléments hétérogènes qui participent au façonnement discursif et social de celui-ci. Cet outil exploratoire est « le rhizome », que j’emprunte à Gilles Deleuze et à Félix Guattari (1976). Le rhizome m’est utile pour rendre compte des multiples portes d’entrée dans la formation discursive de l’enfant téléspectateur, du déplacement comme chercheuse à l’intérieur de celle-ci, et des figures qui se forment par l’articulation du discours et des pratiques entreprises à son égard. Ce faisant, je propose une archive d’époque de l’enfant téléspectateur du Chili « post-1990 ». Dans celle-ci, je montre des modalités particulières de sa formation discursive et des figures hétéroclites de celui-ci qui ont émergé dans les analyses. Finalement, je présente un ensemble de pratiques discursives qui ont également fait surface dans les analyses. Ces pratiques emploient la figure de l’enfant téléspectateur pour instaurer discursivement d’autres « réalités », qui ne le concernent pas directement. M’appuyant sur Jean-Michel Berthelot (1992), notamment sur son concept d’« opérateur discursif », je qualifie ainsi ces pratiques observées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En 1997, dans un souci de justice sociale et de solidarité entre tous les québécois, le gouvernement a instauré un Régime général d’assurance médicaments (RGAM) devant permettre de fournir à moindre coût et de manière équitable, des médicaments prescrits assurant une meilleure prise en charge de la maladie des individus. Depuis sa mise en place, le rythme soutenu d’évolution des coûts des médicaments remboursés par le Régime est le sujet d’un nombre croissant de débats. Le Québec ne fait pas figure d’exception car au cours des dernières décennies, la croissance des dépenses de médicaments des régimes d’assurance médicaments des pays industrialisés a connu un rythme de progression élevé, cela malgré l’instauration successive de mécanismes de régulation ciblant une utilisation optimale des médicaments et un meilleur contrôle de la trajectoire de leurs dépenses. La recherche propose une réflexion sur les cadres communs d’action dans lesquels ces outils de régulation sont implantés et évoluent. Elle s’intéresse à l’ensemble des facteurs relationnels et contextuels qui les constituent. Le devis de recherche s’appuie sur une étude de cas unique qu’est le processus menant à l’utilisation du médicament prescrit couvert par le RGAM. Il se compose de trois unités d’analyse identifiées comme étant des cibles importantes de régulation : l’inscription du médicament à la liste du RGAM, la prescription et l’accès au médicament couvert par le Régime. La perspective conceptuelle retenue est celle de l’analyse stratégique de Crozier et Friedberg (1987). La démarche analytique s’appuie sur des entrevues réalisées auprès des régulateurs, de fabricants de médicaments brevetés et de génériques, de médecins, de pharmaciens et de patients impliqués dans l’utilisation des médicaments remboursés par le RGAM et sur une revue du cadre réglementaire concernant ces acteurs, le médicament d’ordonnance et le RGAM. La recherche décrit et analyse la structuration du processus menant à l’utilisation du médicament couvert par le RGAM. Elle conduit au développement d’un construit organisationnel- le système d’action concret- fondé sur les interdépendances des cinq groupes d’acteurs et les relations de pouvoir qu’ils entretiennent entre eux. Ceux-ci évoluent dans des contextes organisationnels singuliers constitués d’enjeux, de stratégies et de ressources. Ils développent diverses stratégies pour accroître leurs possibilités d’action (capacités stratégiques) face aux problèmes qu’ils ont à résoudre. Les capacités stratégiques, inégales entre les groupes d’acteurs, découlent des relations de pouvoir qu’ils exercent entre eux et les amènent à occuper des positions différentes dans le système d’action concret. La recherche démontre qu’en fonction des capacités stratégiques dont ils disposent, les acteurs sont portés à s’approprier certaines règles en tentant de les influencer, de les contourner ou de ne pas les respecter. La connaissance empirique des cadres communs d’action permet d’établir les bases d’un système d’action concret dans un contexte de « phénomène organisation » (Friedberg, 1997). Cette connaissance d’une part, établit que les retombées de certaines stratégies d’acteurs peuvent s’avérer peu compatibles avec les objectifs du RGAM et, d’autre part, pose les limites de certains mécanismes de régulation en vigueur tout en questionnant les façons de concevoir la régulation dans un système complexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème de tarification qui nous intéresse ici consiste à maximiser le revenu généré par les usagers d'un réseau de transport. Pour se rendre à leurs destinations, les usagers font un choix de route et utilisent des arcs sur lesquels nous imposons des tarifs. Chaque route est caractérisée (aux yeux de l'usager) par sa "désutilité", une mesure de longueur généralisée tenant compte à la fois des tarifs et des autres coûts associés à son utilisation. Ce problème a surtout été abordé sous une modélisation déterministe de la demande selon laquelle seules des routes de désutilité minimale se voient attribuer une mesure positive de flot. Le modèle déterministe se prête bien à une résolution globale, mais pèche par manque de réalisme. Nous considérons ici une extension probabiliste de ce modèle, selon laquelle les usagers d'un réseau sont alloués aux routes d'après un modèle de choix discret logit. Bien que le problème de tarification qui en résulte est non linéaire et non convexe, il conserve néanmoins une forte composante combinatoire que nous exploitons à des fins algorithmiques. Notre contribution se répartit en trois articles. Dans le premier, nous abordons le problème d'un point de vue théorique pour le cas avec une paire origine-destination. Nous développons une analyse de premier ordre qui exploite les propriétés analytiques de l'affectation logit et démontrons la validité de règles de simplification de la topologie du réseau qui permettent de réduire la dimension du problème sans en modifier la solution. Nous établissons ensuite l'unimodalité du problème pour une vaste gamme de topologies et nous généralisons certains de nos résultats au problème de la tarification d'une ligne de produits. Dans le deuxième article, nous abordons le problème d'un point de vue numérique pour le cas avec plusieurs paires origine-destination. Nous développons des algorithmes qui exploitent l'information locale et la parenté des formulations probabilistes et déterministes. Un des résultats de notre analyse est l'obtention de bornes sur l'erreur commise par les modèles combinatoires dans l'approximation du revenu logit. Nos essais numériques montrent qu'une approximation combinatoire rudimentaire permet souvent d'identifier des solutions quasi-optimales. Dans le troisième article, nous considérons l'extension du problème à une demande hétérogène. L'affectation de la demande y est donnée par un modèle de choix discret logit mixte où la sensibilité au prix d'un usager est aléatoire. Sous cette modélisation, l'expression du revenu n'est pas analytique et ne peut être évaluée de façon exacte. Cependant, nous démontrons que l'utilisation d'approximations non linéaires et combinatoires permet d'identifier des solutions quasi-optimales. Finalement, nous en profitons pour illustrer la richesse du modèle, par le biais d'une interprétation économique, et examinons plus particulièrement la contribution au revenu des différents groupes d'usagers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans de nombreux pays, les politiques concernant la répartition des revenus accordent une attention particulière à l’atténuation de la pauvreté. Toutefois, les taux de pauvreté ou de bas revenus – qui sont les indicateurs le plus couramment utilisés dans ce domaine – ne fournissent guère de renseignements de nature à améliorer les politiques visant à réduire la pauvreté. L’objet de ce papier est de contribuer à combler cette lacune analytique en proposant une nouvelle approche axiomatique floue pour mesurer la pauvreté persistante, chronique et transitoire. Notre méthode repose sur la proposition d'une base de règles, le choix des fonctions d’appartenance individuelles et globales et le choix des règles floues définissant l'intersection, l'union et la négation pour la manipulation des sous ensembles flous. Pour une application des concepts proposés nous utilisons des données tunisiennes des années 1985 et 1990.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La phosphorylation est une modification post-traductionnelle omniprésente des protéines Cette modification est ajoutée et enlevée par l’activité enzymatique respective des protéines kinases et phosphatases. Les kinases Erk1/2 sont au cœur d’une voie de signalisation importante qui régule l’activité de protéines impliquées dans la traduction, le cycle cellulaire, le réarrangement du cytosquelette et la transcription. Ces kinases sont aussi impliquées dans le développement de l’organisme, le métabolisme du glucose, la réponse immunitaire et la mémoire. Différentes pathologies humaines comme le diabète, les maladies cardiovasculaires et principalement le cancer, sont associées à une perturbation de la phosphorylation sur les différents acteurs de cette voie. Considérant l’importance biologique et clinique de ces deux kinases, connaître l’étendue de leur activité enzymatique pourrait mener au développement de nouvelles thérapies pharmacologiques. Dans ce contexte, l’objectif principal de cette thèse était de mesurer l’influence de cette voie sur le phosphoprotéome et de découvrir de nouveaux substrats des kinases Erk1/2. Une étude phosphoprotéomique de cinétique d’inhibition pharmacologique de la voie de signalisation Erk1/2 a alors été entreprise. Le succès de cette étude était basé sur trois technologies clés, soit l’enrichissement des phosphopeptides avec le dioxyde de titane, la spectrométrie de masse haut débit et haute résolution, et le développement d’une plateforme bio-informatique nommée ProteoConnections. Cette plateforme permet d’organiser les données de protéomique, évaluer leur qualité, indiquer les changements d’abondance et accélérer l’interprétation des données. Une fonctionnalité distinctive de ProteoConnections est l’annotation des sites phosphorylés identifiés (kinases, domaines, structures, conservation, interactions protéiques phospho-dépendantes). Ces informations ont été essentielles à l’analyse des 9615 sites phosphorylés sur les 2108 protéines identifiées dans cette étude, soit le plus large ensemble rapporté chez le rat jusqu’à ce jour. L’analyse des domaines protéiques a révélé que les domaines impliqués dans les interactions avec les protéines, les acides nucléiques et les autres molécules sont les plus fréquemment phosphorylés et que les sites sont stratégiquement localisés pour affecter les interactions. Un algorithme a été implémenté pour trouver les substrats potentiels des kinases Erk1/2 à partir des sites identifiés selon leur motif de phosphorylation, leur cinétique de stimulation au sérum et l’inhibition pharmacologique de Mek1/2. Une liste de 157 substrats potentiels des kinases Erk1/2 a ainsi été obtenue. Parmi les substrats identifiés, douze ont déjà été rapportés et plusieurs autres ont des fonctions associées aux substrats déjà connus. Six substrats (Ddx47, Hmg20a, Junb, Map2k2, Numa1, Rras2) ont été confirmés par un essai kinase in vitro avec Erk1. Nos expériences d’immunofluorescence ont démontré que la phosphorylation de Hmg20a sur la sérine 105 par Erk1/2 affecte la localisation nucléocytoplasmique de cette protéine. Finalement, les phosphopeptides isomériques positionnels, soit des peptides avec la même séquence d’acides aminés mais phosphorylés à différentes positions, ont été étudiés avec deux nouveaux algorithmes. Cette étude a permis de déterminer leur fréquence dans un extrait enrichi en phosphopeptides et d’évaluer leur séparation par chromatographie liquide en phase inverse. Une stratégie analytique employant un des algorithmes a été développée pour réaliser une analyse de spectrométrie de masse ciblée afin de découvrir les isomères ayant été manqués par la méthode d’analyse conventionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’évaluation économique en santé consiste en l’analyse comparative d’alternatives de services en regard à la fois de leurs coûts et de leurs conséquences. Elle est un outil d’aide à la décision. La grande majorité des décisions concernant l’allocation des ressources sont prises en clinique; particulièrement au niveau des soins primaires. Puisque chaque décision est associée à un coût d’opportunité, la non-prise en compte des considérations économiques dans les pratiques des médecins de famille peut avoir un impact important sur l’efficience du système de santé. Il existe peu de connaissances quant à l’influence des évaluations économiques sur la pratique clinique. L’objet de la thèse est de comprendre le rôle de l’évaluation économique dans la pratique des médecins de famille. Ses contributions font l’objet de quatre articles originaux (philosophique, théorique, méthodologique et empirique). L’article philosophique suggère l’importance des questions de complexité et de réflexivité en évaluation économique. La complexité est la perspective philosophique, (approche générale épistémologique) qui sous-tend la thèse. Cette vision du monde met l’attention sur l’explication et la compréhension et sur les relations et les interactions (causalité interactive). Cet accent sur le contexte et le processus de production des données souligne l’importance de la réflexivité dans le processus de recherche. L’article théorique développe une conception nouvelle et différente du problème de recherche. L’originalité de la thèse réside également dans son approche qui s’appuie sur la perspective de la théorie sociologique de Pierre Bourdieu; une approche théorique cohérente avec la complexité. Opposé aux modèles individualistes de l’action rationnelle, Bourdieu préconise une approche sociologique qui s’inscrit dans la recherche d’une compréhension plus complète et plus complexe des phénomènes sociaux en mettant en lumière les influences souvent implicites qui viennent chaque jour exercer des pressions sur les individus et leurs pratiques. L’article méthodologique présente le protocole d’une étude qualitative de cas multiples avec niveaux d’analyse imbriqués : les médecins de famille (niveau micro-individuel) et le champ de la médecine familiale (niveau macro-structurel). Huit études de cas furent réalisées avec le médecin de famille comme unité principale d’analyse. Pour le niveau micro, la collecte des informations fut réalisée à l’aide d’entrevues de type histoire de vie, de documents et d’observation. Pour le niveau macro, la collecte des informations fut réalisée à l’aide de documents, et d’entrevues de type semi-structuré auprès de huit informateurs clés, de neuf organisations médicales. L’induction analytique fut utilisée. L’article empirique présente l’ensemble des résultats empiriques de la thèse. Les résultats montrent une intégration croissante de concepts en économie dans le discours officiel des organisations de médecine familiale. Cependant, au niveau de la pratique, l'économisation de ce discours ne semble pas être une représentation fidèle de la réalité puisque la très grande majorité des participants n'incarnent pas ce discours. Les contributions incluent une compréhension approfondie des processus sociaux qui influencent les schèmes de perception, de pensée, d’appréciation et d’action des médecins de famille quant au rôle de l’évaluation économique dans la pratique clinique et la volonté des médecins de famille à contribuer à une allocation efficiente, équitable et légitime des ressources.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est composée de trois articles en économie des ressources naturelles non-renouvelables. Nous considérons tour à tour les questions suivantes : le prix in-situ des ressources naturelles non-renouvelables ; le taux d’extraction optimal et le prix des res- sources non-renouvelables et durables. Dans le premier article, nous estimons le prix in-situ des ressources naturelles non-renouvelables en utilisant les données sur le coût moyen d’extraction pour obtenir une approximation du coût marginal. En utilisant la Méthode des Moments Généralisés, une dynamique du prix de marché derivée des conditions d’optimalité du modèle d’Hotelling est estimée avec des données de panel de 14 ressources naturelles non-renouvelables. Nous trouvons des résultats qui tendent à soutenir le modèle. Premièrement, le modèle d’Hotelling exhibe un bon pouvoir explicatif du prix de marché observé. Deuxièmement, bien que le prix estimé présente un changement structurel dans le temps, ceci semble n’avoir aucun impact significatif sur le pouvoir explicatif du modèle. Troisièmement, on ne peut pas rejeter l’hypothèse que le coût marginal d’extraction puisse être approximé par les données sur le coût moyen. Quatrièmement, le prix in-situ estimé en prenant en compte les changements structurels décroît ou exhibe une forme en U inversé dans le temps et semble être corrélé positivement avec le prix de marché. Cinquièmement, pour neuf des quatorze ressources, la différence entre le prix in-situ estimé avec changements structurels et celui estimé en négligeant les changements structurels est un processus de moyenne nulle. Dans le deuxième article, nous testons l’existence d’un équilibre dans lequel le taux d’extraction optimal des ressources non-renouvelables est linéaire par rapport au stock de ressource en terre. Tout d’abord, nous considérons un modèle d’Hotelling avec une fonction de demande variant dans le temps caractérisée par une élasticité prix constante et une fonction de coût d’extraction variant dans le temps caractérisée par des élasticités constantes par rapport au taux d’extraction et au stock de ressource. Ensuite, nous mon- trons qu’il existe un équilibre dans lequel le taux d’extraction optimal est proportionnel au stock de ressource si et seulement si le taux d’actualisation et les paramètres des fonctions de demande et de coût d’extraction satisfont une relation bien précise. Enfin, nous utilisons les données de panel de quatorze ressources non-renouvelables pour vérifier empiriquement cette relation. Dans le cas où les paramètres du modèle sont supposés invariants dans le temps, nous trouvons qu’on ne peut rejeter la relation que pour six des quatorze ressources. Cependant, ce résultat change lorsque nous prenons en compte le changement structurel dans le temps des prix des ressources. En fait, dans ce cas nous trouvons que la relation est rejetée pour toutes les quatorze ressources. Dans le troisième article, nous étudions l’évolution du prix d’une ressource naturelle non-renouvelable dans le cas où cette ressource est durable, c’est-à-dire qu’une fois extraite elle devient un actif productif détenu hors terre. On emprunte à la théorie de la détermination du prix des actifs pour ce faire. Le choix de portefeuille porte alors sur les actifs suivant : un stock de ressource non-renouvelable détenu en terre, qui ne procure aucun service productif ; un stock de ressource détenu hors terre, qui procure un flux de services productifs ; un stock d’un bien composite, qui peut être détenu soit sous forme de capital productif, soit sous forme d’une obligation dont le rendement est donné. Les productivités du secteur de production du bien composite et du secteur de l’extraction de la ressource évoluent de façon stochastique. On montre que la prédiction que l’on peut tirer quant au sentier de prix de la ressource diffère considérablement de celle qui découle de la règle d’Hotelling élémentaire et qu’aucune prédiction non ambiguë quant au comportement du sentier de prix ne peut être obtenue de façon analytique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

On étudie l'évolution du prix d'une ressource naturelle non renouvelable dans le cas où cette ressource est durable, c'est-à-dire qu'une fois extraite elle devient un actif productif détenu hors terre. On emprunte à la théorie de la détermination du prix des actifs pour ce faire. Le choix de portefeuille porte alors sur les actifs suivant : un stock de ressource non renouvelable détenu en terre, qui ne procure aucun service productif; un stock de ressource détenu hors terre, qui procure un flux de services productifs; un stock d'un bien composite, qui peut être détenu soit sous forme de capital productif, soit sous forme d'une obligation dont le rendement est donn e. Les productivités du secteur de production du bien composite et du secteur de l'extraction de la ressource évoluent de façon stochastique. On montre que la prédiction que l'on peut tirer quant au sentier de prix de la ressource diffère considérablement de celle qui découle de la règle d'Hotelling élémentaire et qu'aucune prédiction non ambiguë quant au comportement du sentier de prix ne peut être obtenue de façon analytique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les quatre principales activités de la gestion de risque thérapeutique comportent l’identification, l’évaluation, la minimisation, et la communication du risque. Ce mémoire aborde les problématiques liées à l’identification et à la minimisation du risque par la réalisation de deux études dont les objectifs sont de: 1) Développer et valider un outil de « data mining » pour la détection des signaux à partir des banques de données de soins de santé du Québec; 2) Effectuer une revue systématique afin de caractériser les interventions de minimisation de risque (IMR) ayant été implantées. L’outil de détection de signaux repose sur la méthode analytique du quotient séquentiel de probabilité (MaxSPRT) en utilisant des données de médicaments délivrés et de soins médicaux recueillis dans une cohorte rétrospective de 87 389 personnes âgées vivant à domicile et membres du régime d’assurance maladie du Québec entre les années 2000 et 2009. Quatre associations « médicament-événement indésirable (EI) » connues et deux contrôles « négatifs » ont été utilisés. La revue systématique a été faite à partir d’une revue de la littérature ainsi que des sites web de six principales agences réglementaires. La nature des RMIs ont été décrites et des lacunes de leur implémentation ont été soulevées. La méthode analytique a mené à la détection de signaux dans l'une des quatre combinaisons médicament-EI. Les principales contributions sont: a) Le premier outil de détection de signaux à partir des banques de données administratives canadiennes; b) Contributions méthodologiques par la prise en compte de l'effet de déplétion des sujets à risque et le contrôle pour l'état de santé du patient. La revue a identifié 119 IMRs dans la littérature et 1,112 IMRs dans les sites web des agences réglementaires. La revue a démontré qu’il existe une augmentation des IMRs depuis l’introduction des guides réglementaires en 2005 mais leur efficacité demeure peu démontrée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif général de cette thèse est de développer une plateforme d’immobilisation d’enzymes efficace pour application en biopile. Grâce à la microencapsulation ainsi qu’au choix judicieux des matériaux polymériques pour la fabrication de la plateforme d’immobilisation, l’efficacité du transfert électronique entre l’enzyme encapsulée et l’électrode serait amélioré. Du même coup, les biopiles employant cette plateforme d’immobilisation d’enzymes pourrait voir leur puissance délivrée être grandement augmentée et atteindre les niveaux nécessaires à l’alimentation d’implants artificiels pouvant remplacer des organes telque le pancréas, les reins, le sphincter urinaire et le coeur. Dans un premier temps, le p-phénylènediamine a été employé comme substrat pour la caractérisation de la laccase encapsulée dans des microcapsules de poly(éthylèneimine). La diffusion de ce substrat à travers les microcapsules a été étudiée sous diverses conditions par l’entremise de son oxidation électrochimique et enzymatique afin d’en évaluer sa réversibilité et sa stabilité. La voltampérométrie cyclique, l’électrode à disque tournante (rotating disk electrode - RDE) et l’électrode à O2 ont été les techniques employées pour cette étude. Par la suite, la famille des poly(aminocarbazoles) et leurs dérivés a été identifée pour remplacer le poly(éthylèneimine) dans la conception de microcapsules. Ces polymères possèdent sur leurs unités de répétition (mono- ou diamino) des amines primaires qui seraient disponibles lors de la polymérisation interfaciale avec un agent réticulant tel qu’un chlorure de diacide. De plus, le 1,8-diaminocarbazole (unité de répétition) possède, une fois polymérisé, les propriétés électrochimiques recherchées pour un transfert d’électrons efficace entre l’enzyme et l’électrode. Il a toutefois été nécessaire de développer une route de synthèse afin d’obtenir le 1,8-diaminocarbazole puisque le protocole de synthèse disponible dans la littérature a été jugé non viable pour être utilisé à grande échelle. De plus, aucun protocole de synthèse pour obtenir du poly(1,8-diaminocarbazole) directement n’a été trouvé. Ainsi, deux isomères de structure (1,6 et 1,8-diaminocarbazole) ont pu être synthétisés en deux étapes. La première étape consistait en une substitution électrophile du 3,6-dibromocarbazole en positions 1,8 et/ou 1,6 par des groupements nitro. Par la suite, une réaction de déhalogénation réductive à été réalisée en utilisant le Et3N et 10% Pd/C comme catalyseur dans le méthanol sous atmosphère d’hydrogène. De plus, lors de la première étape de synthèse, le composé 3,6-dibromo-1-nitro-carbazole a été obtenu; un monomère clé pour la synthèse du copolymère conducteur employé. Finalement, la fabrication de microcapsules conductrices a été réalisée en incorporant le copolymère poly[(9H-octylcarbazol-3,6-diyl)-alt-co-(2-amino-9H-carbazol-3,6-diyl)] au PEI. Ce copolymère a pu être synthétisé en grande quantité pour en permettre son utilisation lors de la fabrication de microcapsules. Son comportement électrochimique s’apparentait à celui du poly(1,8-diaminocarbazole). Ces microcapsules, avec laccase encapsulée, sont suffisamment perméables au PPD pour permettre une activité enzymatique détectable par électrode à O2. Par la suite, la modification de la surface d’une électrode de platine a pu être réalisée en utilisant ces microcapsules pour l’obtention d’une bioélectrode. Ainsi, la validité de cette plateforme d’immobilisation d’enzymes développée, au cours de cette thèse, a été démontrée par le biais de l’augmentation de l’efficacité du transfert électronique entre l’enzyme encapsulée et l’électrode.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans les milieux contaminés par les métaux, les organismes vivants sont exposés à plusieurs d’entre eux en même temps. Les modèles courants de prédiction des effets biologiques des métaux sur les organismes (p. ex., modèle du ligand biotique, BLM ; modèle de l’ion libre, FIAM), sont des modèles d’équilibre chimique qui prévoient, en présence d'un deuxième métal, une diminution de la bioaccumulation du métal d’intérêt et par la suite une atténuation de ses effets. Les biomarqueurs de toxicité, tels que les phytochélatines (PCs), ont été utilisés comme étant un moyen alternatif pour l’évaluation des effets biologiques. Les phytochélatines sont des polypeptides riches en cystéine dont la structure générale est (γ-glu-cys)n-Gly où n varie de 2 à 11. Leur synthèse semble dépendante de la concentration des ions métalliques ainsi que de la durée de l’ exposition de l’organisme, aux métaux. L'objectif de cette étude était donc de déterminer, dans les mélanges binaires de métaux, la possibilité de prédiction de la synthèse des phytochélatines par les modèles d’équilibres chimiques, tel que le BLM. Pour cela, la quantité de phytochélatines produites en réponse d’une exposition aux mélanges binaires : Cd-Ca, Cd-Cu et Cd-Pb a été mesurée tout en surveillant l’effet direct de la compétition par le biais des concentrations de métaux internalisés. En effet, après six heures d’exposition, la bioaccumulation de Cd diminue en présence du Ca et de très fortes concentrations de Pb et de Cu (de l’ordre de 5×10-6 M). Par contre, avec des concentrations modérées de ces deux métaux, le Cd augmente en présence de Cu et ne semble pas affecté par la présence de Pb. Dans le cas de la compétition Cd-Cu, une bonne corrélation a été observée entre la production de PC2, PC3 et PC4 et la quantité des métaux bioaccumulés. Pour la synthèse des phytochélatines et la bioaccumulation, les effets étaient considérés comme synergiques. Dans le cas du Cd-Ca, les quantités de PC3 et PC4 ont diminué avec le métal internalisé (effet antagoniste), mais ce qui était remarquable était la grande quantité de cystéine (GSH) et PC2 qui ont été produites à de fortes concentrations du Ca. Le Pb seul n’a pas induit les PCs. Par conséquent, il n’y avait pas de variation de la quantité de PCs avec la concentration de Pb à laquelle les algues ont été exposées. La détection et la quantification des PCs ont été faites par chromatographie à haute performance couplée d’un détecteur de fluorescence (HPLC-FL). Tandis que les concentrations métalliques intracellulaires ont été analysées par spectroscopie d’absorption atomique (AAS) ou par spectrométrie de masse à source plasma à couplage inductif (ICP-MS).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une nouvelle méthode d'extraction en phase solide (SPE) couplée à une technique d'analyse ultrarapide a été développée pour la détermination simultanée de neuf contaminants émergents (l'atrazine, le déséthylatrazine, le 17(béta)-estradiol, l'éthynylestradiol, la noréthindrone, la caféine, la carbamazépine, le diclofénac et le sulfaméthoxazole) provenant de différentes classes thérapeutiques et présents dans les eaux usées. La pré-concentration et la purification des échantillons a été réalisée avec une cartouche SPE en mode mixte (Strata ABW) ayant à la fois des propriétés échangeuses de cations et d'anions suivie d'une analyse par une désorption thermique par diode laser/ionisation chimique à pression atmosphérique couplée à la spectrométrie de masse en tandem (LDTD-APCI-MS/MS). La LDTD est une nouvelle méthode d'introduction d'échantillon qui réduit le temps total d'analyse à moins de 15 secondes par rapport à plusieurs minutes avec la chromatographie liquide couplée à la spectrométrie de masse en tandem traditionnelle (LC-MS/MS). Plusieurs paramètres SPE ont été évalués dans le but d'optimiser l'efficacité de récupération lors de l'extraction des analytes provenant des eaux usées, tels que la nature de la phase stationnaire, le débit de chargement, le pH d'extraction, le volume et la composition de la solution de lavage et le volume de l'échantillon initial. Cette nouvelle méthode a été appliquée avec succès à de vrais échantillons d'eaux usées provenant d'un réservoir de décantation primaire. Le recouvrement des composés ciblés provenant des eaux usées a été de 78 à 106%, la limite de détection a été de 30 à 122 ng L-1, alors que la limite de quantification a été de 88 à 370 ng L-1. Les courbes d'étalonnage dans les matrices d'eaux usées ont montré une bonne linéarité (R2 > 0,991) pour les analytes cibles ainsi qu’une précision avec un coefficient de variance inférieure à 15%.