571 resultados para Réseaux optiques (Optoélectronique)
Resumo:
Les facteurs de transcription sont des protéines spécialisées qui jouent un rôle important dans différents processus biologiques tel que la différenciation, le cycle cellulaire et la tumorigenèse. Ils régulent la transcription des gènes en se fixant sur des séquences d’ADN spécifiques (éléments cis-régulateurs). L’identification de ces éléments est une étape cruciale dans la compréhension des réseaux de régulation des gènes. Avec l’avènement des technologies de séquençage à haut débit, l’identification de tout les éléments fonctionnels dans les génomes, incluant gènes et éléments cis-régulateurs a connu une avancée considérable. Alors qu’on est arrivé à estimer le nombre de gènes chez différentes espèces, l’information sur les éléments qui contrôlent et orchestrent la régulation de ces gènes est encore mal définie. Grace aux techniques de ChIP-chip et de ChIP-séquençage il est possible d’identifier toutes les régions du génome qui sont liées par un facteur de transcription d’intérêt. Plusieurs approches computationnelles ont été développées pour prédire les sites fixés par les facteurs de transcription. Ces approches sont classées en deux catégories principales: les algorithmes énumératifs et probabilistes. Toutefois, plusieurs études ont montré que ces approches génèrent des taux élevés de faux négatifs et de faux positifs ce qui rend difficile l’interprétation des résultats et par conséquent leur validation expérimentale. Dans cette thèse, nous avons ciblé deux objectifs. Le premier objectif a été de développer une nouvelle approche pour la découverte des sites de fixation des facteurs de transcription à l’ADN (SAMD-ChIP) adaptée aux données de ChIP-chip et de ChIP-séquençage. Notre approche implémente un algorithme hybride qui combine les deux stratégies énumérative et probabiliste, afin d’exploiter les performances de chacune d’entre elles. Notre approche a montré ses performances, comparée aux outils de découvertes de motifs existants sur des jeux de données simulées et des jeux de données de ChIP-chip et de ChIP-séquençage. SAMD-ChIP présente aussi l’avantage d’exploiter les propriétés de distributions des sites liés par les facteurs de transcription autour du centre des régions liées afin de limiter la prédiction aux motifs qui sont enrichis dans une fenêtre de longueur fixe autour du centre de ces régions. Les facteurs de transcription agissent rarement seuls. Ils forment souvent des complexes pour interagir avec l’ADN pour réguler leurs gènes cibles. Ces interactions impliquent des facteurs de transcription dont les sites de fixation à l’ADN sont localisés proches les uns des autres ou bien médier par des boucles de chromatine. Notre deuxième objectif a été d’exploiter la proximité spatiale des sites liés par les facteurs de transcription dans les régions de ChIP-chip et de ChIP-séquençage pour développer une approche pour la prédiction des motifs composites (motifs composés par deux sites et séparés par un espacement de taille fixe). Nous avons testé ce module pour prédire la co-localisation entre les deux demi-sites ERE qui forment le site ERE, lié par le récepteur des œstrogènes ERα. Ce module a été incorporé à notre outil de découverte de motifs SAMD-ChIP.
Resumo:
Les récepteurs couplés aux protéines G (RCPGs) représentent la plus grande famille de cibles thérapeutiques pour le traitement d’une panoplie de pathologies humaines. Bien que plusieurs décennies de recherche aient permis de façonner nos connaissances sur ces protéines membranaires, notre compréhension des déterminants moléculaires de leur activité signalétique reste encore limitée. De ces domaines de recherche, une avancée récente a mis à jour un nouveau phénomène, appelé sélectivité fonctionnelle des ligands, qui a bouleversé les paradigmes décrivant leu fonctionnement de ces récepteurs. Ce concept émane d’observations montrant que l’activité pharmacologique de certains ligands n’est pas nécessairement conservée sur tout le répertoire signalétiques connu du récepteur et peu se restreindre à l'activation sélective d’un sous-groupe de voies de signalisation.Ce nouveau modèle pharmacologique de l'activation des RCPG ouvre de nouvelles possibilités pour la découverte de médicaments plus efficace et sûr, ciblant les RCPGs. En effet, il permet la conception de molécules modulant spécifiquement les voies signalétiques d’intérêt thérapeutique, sans engager les autres voies qui pourraient mener à des effets secondaires indésirables ou de la tolérance. Cette thèse décrit l'utilisation d'une nouvelle approche sans marquage, basée sur la mesure du changement l'impédance cellulaire. Par la mesure des changements cellulaires, comme la morphologie, l’adhésion et/ou la redistribution des macromolécules, cette approche permet de mesurer de façon simultanée l'activité de plusieurs voies de signalisation impliqués dans ces réponses. Utilisant le récepteur β2-adrénergique (β2AR) comme modèle, nous avons démontré que les variations dans l’impédance cellulaire étaient directement liées à l’activation de multiples voies de signalisation suite à la stimulation du récepteur par son ligand. L’agoniste type du β2AR, l’isoprotérénol, s’est avéré induire une réponse d’impédance dose-dépendante constituée, dans le temps, de plusieurs caractéristiques distinctes pouvant être bloquées de façon compétitive par l’antagoniste ICI118,551 Par l’utilisation d’inhibiteurs sélectifs, nous avons été en mesure de déterminer la contribution de plusieurs voies signalétiques canoniques, comme les voies dépendantes de Gs et Gi, la production d’AMPc et l’activation de ERK1/2, sur ces changements. De plus, la dissection de la réponse d’impédance a permis d’identifier une nouvelle voie de mobilisation du Ca2+ contribuant à la réponse globale des changements initiés par la stimulation du β2AR. Dans une autre étude, nous avons rapporté que la réponse calcique induite par le β2AR serait attribuable à une transactivation Gs-dépendant du récepteur purinergique P2Y11, lui-même couplé à la protéine Gq. La mesure d’impédance permettant de distinguer et de décrire une pléiade d’activités signalétiques, nous avons émis l’hypothèse que des ligands arborant des profils signalétiques différents généreraient des réponses d’impédance distinctes. Le criblage d’une librairie de ligands spécifiques au β2AR a révélé une grande variété de signatures d’impédance. Grâce au développement d’une approche computationnelle innovatrice, nous avons été en mesure de regrouper ces signatures en cinq classes de composés, un regroupement qui s’est avéré hautement corrélé avec le profil signalétique des différents ligands. Nous avons ensuite combiné le criblage de composés par impédance avec l’utilisation d’inhibiteurs sélectifs de voies signalétiques afin d’augmenter la résolution du regroupement. En évaluant l’impact d’une voie signalétique donnée sur la signature d’impédance, nous avons été en mesure de révéler une plus grande variété de textures parmi les ligands. De plus, cette méthode s’est avérée efficace pour prédire le profil signalétique d’une librairie de composés non caractérisés, ciblant le β2AR. Ces travaux ont mené à l’élaboration d’une méthode permettant d’exprimer visuellement la sélectivité fonctionnelle de ligands et ont révélé de nouvelles classes de composés pour ce récepteur. Ces nouvelles classes de composés ont ensuite été testées sur des cardiomyocytes humains, confirmant que les composés regroupés dans différentes classes produisent des effets distincts sur la contractilité de ces cellules. Globalement, ces travaux démontrent la pertinence de l’utilisation de l’impédance cellulaire pour une évaluation précise des différences fonctionnelles parmi les composés ciblant les RCPGs. En fournissant une représentation pluridimensionnelle de la signalisation émanant des RCPGs à l’aide d’un seul essai ne requérant pas de marquage, les signatures d’impédance représentent une stratégie simple et innovante pour l’évaluation de la fonctionnalité sélective des ligands. Cette méthode pourrait être d’une grande utilité dans le processus de découverte de nouveaux médicaments.
Resumo:
Cette thèse enquête sur l’émergence d’espaces de soin à l’ère de la mondialisation numérique. Elle s’articule autour d’incursions au sein du Pan-African e Network Project (PAN), un réseau de cybersanté par l’entremise duquel des hôpitaux tertiaires situés en Inde offrent des services de téléconsultations et de formation médicale à des centres de santé africains. Des incursions sur la piste d’un projet en constante mutation, pour en saisir la polyvalence ontologique, la pertinence politique, la valeur thérapeutique. Le PAN, c’est une entreprise colossale, aux ramifications multiples. C’est le travail quotidien d’ingénieurs, médecins, gestionnaires. Ce sont des routines techniques, des équipements. À la fois emblème d’une résurgence de la coopération indo-africaine et expression d’une étonnante histoire cybermédicale indienne, le réseau incarne une Inde néolibérale, portée par l’ambition technique et commerciale de propulser la nation au centre de la marche du monde. Le PAN, c’est une ouverture numérique de la clinique, qui reconfigure la spatialité de la prise en charge de patients. C’est un réseau clé en main, une quête insatiable de maîtrise, une infrastructure largement sous-utilisée. C’est le projet d’une humanité à prendre en charge : une humanité prospère, en santé, connectée. De part en part, l’expérience du PAN problématise le telos cybermédical. Au romantisme d’une circulation fluide et désincarnée de l’information et de l’expertise, elle oppose la concrétude, la plasticité et la pure matérialité de pratiques situées. Qu’on parle de « dispositifs » (Foucault), de « réseaux » (Latour), ou de « sphères » (Sloterdijk), la prise en charge du vivant ne s’effectue pas sur des surfaces neutres et homogènes, mais relève plutôt de forces locales et immanentes. Le PAN pose la nécessité de penser la technique et le soin ensemble, et d’ainsi déprendre la question du devenir de la clinique autant du triomphalisme moderne de l’émancipation que du recueillement phénoménologique devant une expérience authentique du monde. Il s’agit, en somme, de réfléchir sur les pratiques, événements et formes de pouvoir qui composent ces « espaces intérieurs » que sont les réseaux cybermédicaux, dans tout leur vacarme, leur splendeur et leur insuffisance.
Resumo:
Dans ce mémoire de maîtrise, il s'agit d'examiner le rôle du genre, de la sexualité et de la traduction dans les rapports entre deux mouvements nationalistes. D'abord, nous examinerons les représentations de la famille véchiulées dans l'autobiographie du membre du Front de libération du Québec Pierre Vallières (1938-1998), Les Nègres blancs d'Amérique. Ensuite, nous nous pencherons sur l'analyse du genre et de la sexualité contenue dans Soul on Ice, un recueil de textes écrits par le nationaliste noir Eldridge Cleaver (1933-1998). Dans les deux cas, la question de la violence révolutionnaire tiendra lieu de fil conducteur. Enfin, dans le troisième chapitre, nous relirons la traduction anglaise de Vallières, White Niggers of America, signée par Joan Pinkham. Cette relecture nous fournira l'occasion à la fois de comprendre et de critiquer, à partir de la perspective établie par la pensée de Cleaver au sujet de la masculinité noire dans une société régie par la suprématie blanche, comment Vallières essaie de bâtir des réseaux de solidarité internationaux et interraciaux entre les hommes. Dans notre conclusion, nous réunirons ces trois textes par le biais du sujet de l'internationalisme, en nous servant de la théorie queer, de la traductologie et des données biographiques pour résumer les résultats de nos recherches.
Resumo:
L'objectif de cette étude est d'apprendre à créer de nouveaux matériaux moléculaires par design. À l'heure actuelle, il n'existe aucune méthode générale pour la prédiction des structures et des propriétés, mais des progrès importants ont été accomplis, en particulier dans la fabrication de matériaux moléculaires ordonnés tels que des cristaux. En ces matériaux, l'organisation peut être contrôlée efficacement par la stratégie de la tectonique moléculaire. Cette approche utilise des molécules appelées “tectons”, qui peuvent s’associer de manière dirigée par des interactions non covalentes prévisibles. De cette façon, la position de chaque molécule par rapport à ses voisins peut être programmée avec un degré élevé de fiabilité pour créer des cristaux et d'autres matériaux organisés avec des caractéristiques et des propriétés structurelles souhaitables. Le travail que nous allons décrire est axé sur l'utilisation de l'association des cations bis(aminidinium) avec des carboxylates, sulfonates, phosphonates et phosphates, afin de créer des réseaux moléculaires prévisibles. Ces réseaux promettent d'être particulièrement robuste, car ils sont maintenus ensemble par de multiples liaisons hydrogène assistées par des interactions électrostatiques.
Resumo:
De nombreux problèmes pratiques qui se posent dans dans le domaine de la logistique, peuvent être modélisés comme des problèmes de tournées de véhicules. De façon générale, cette famille de problèmes implique la conception de routes, débutant et se terminant à un dépôt, qui sont utilisées pour distribuer des biens à un nombre de clients géographiquement dispersé dans un contexte où les coûts associés aux routes sont minimisés. Selon le type de problème, un ou plusieurs dépôts peuvent-être présents. Les problèmes de tournées de véhicules sont parmi les problèmes combinatoires les plus difficiles à résoudre. Dans cette thèse, nous étudions un problème d’optimisation combinatoire, appartenant aux classes des problèmes de tournées de véhicules, qui est liée au contexte des réseaux de transport. Nous introduisons un nouveau problème qui est principalement inspiré des activités de collecte de lait des fermes de production, et de la redistribution du produit collecté aux usines de transformation, pour la province de Québec. Deux variantes de ce problème sont considérées. La première, vise la conception d’un plan tactique de routage pour le problème de la collecte-redistribution de lait sur un horizon donné, en supposant que le niveau de la production au cours de l’horizon est fixé. La deuxième variante, vise à fournir un plan plus précis en tenant compte de la variation potentielle de niveau de production pouvant survenir au cours de l’horizon considéré. Dans la première partie de cette thèse, nous décrivons un algorithme exact pour la première variante du problème qui se caractérise par la présence de fenêtres de temps, plusieurs dépôts, et une flotte hétérogène de véhicules, et dont l’objectif est de minimiser le coût de routage. À cette fin, le problème est modélisé comme un problème multi-attributs de tournées de véhicules. L’algorithme exact est basé sur la génération de colonnes impliquant un algorithme de plus court chemin élémentaire avec contraintes de ressources. Dans la deuxième partie, nous concevons un algorithme exact pour résoudre la deuxième variante du problème. À cette fin, le problème est modélisé comme un problème de tournées de véhicules multi-périodes prenant en compte explicitement les variations potentielles du niveau de production sur un horizon donné. De nouvelles stratégies sont proposées pour résoudre le problème de plus court chemin élémentaire avec contraintes de ressources, impliquant dans ce cas une structure particulière étant donné la caractéristique multi-périodes du problème général. Pour résoudre des instances de taille réaliste dans des temps de calcul raisonnables, une approche de résolution de nature heuristique est requise. La troisième partie propose un algorithme de recherche adaptative à grands voisinages où de nombreuses nouvelles stratégies d’exploration et d’exploitation sont proposées pour améliorer la performances de l’algorithme proposé en termes de la qualité de la solution obtenue et du temps de calcul nécessaire.
Resumo:
Quel est le pouvoir des normes internationales de droits humains ? Ces normes ont-elles un pouvoir politique? En s’appuyant sur le cas mexicain (entre 1988 et 2006), la thèse tente de répondre à trois questionnements. Le premier est lié à la trajectoire des normes: les défenseurs mexicains des droits humains cherchent-ils l’appui d’acteurs internationaux pour promouvoir les droits humains vis-à-vis leur gouvernement, tel que le suggère le modèle du boomerang ? Deuxièmement, il s’agit de comprendre l’impact du processus de diffusion des normes sur le respect des droits humains : les acteurs internationaux et nationaux qui défendent les droits humains parviennent-ils à influencer les décisions politiques gouvernementales, en matière de protection des droits humains ? Et finalement: ces groupes contribuent-ils à changer le cours du processus de démocratisation d’un État ? Les résultats de la recherche permettent de tirer quelques conclusions. La thèse confirme dans un premier temps la théorie du boomerang de Keck et Sikkink (1998), puisque les pressions domestiques en matière de droits humains deviennent efficaces au moment où les acteurs domestiques gagnent l’appui des acteurs internationaux. En ce qui concerne l’impact de la diffusion des normes internationales des droits humains sur leur protection gouvernementale, il semble que le gouvernement mexicain entre 1988 et 2006 réagisse aux pressions des acteurs qui diffusent les normes de droits humains par la mise en place d’institutions et de lois et non par une protection effective de ces droits. Un deuxième type d’impact, lié à la diffusion des normes en droits humains, est observé sur le processus de démocratisation. La thèse montre que les acteurs qui diffusent les normes en droits humains jouent un rôle dans la mise en place de réformes électorales, tout en contribuant à une redéfinition plus démocratique des rapports de pouvoir entre la société civile et l’État.
Resumo:
Les humains communiquent via différents types de canaux: les mots, la voix, les gestes du corps, des émotions, etc. Pour cette raison, un ordinateur doit percevoir ces divers canaux de communication pour pouvoir interagir intelligemment avec les humains, par exemple en faisant usage de microphones et de webcams. Dans cette thèse, nous nous intéressons à déterminer les émotions humaines à partir d’images ou de vidéo de visages afin d’ensuite utiliser ces informations dans différents domaines d’applications. Ce mémoire débute par une brève introduction à l'apprentissage machine en s’attardant aux modèles et algorithmes que nous avons utilisés tels que les perceptrons multicouches, réseaux de neurones à convolution et autoencodeurs. Elle présente ensuite les résultats de l'application de ces modèles sur plusieurs ensembles de données d'expressions et émotions faciales. Nous nous concentrons sur l'étude des différents types d’autoencodeurs (autoencodeur débruitant, autoencodeur contractant, etc) afin de révéler certaines de leurs limitations, comme la possibilité d'obtenir de la coadaptation entre les filtres ou encore d’obtenir une courbe spectrale trop lisse, et étudions de nouvelles idées pour répondre à ces problèmes. Nous proposons également une nouvelle approche pour surmonter une limite des autoencodeurs traditionnellement entrainés de façon purement non-supervisée, c'est-à-dire sans utiliser aucune connaissance de la tâche que nous voulons finalement résoudre (comme la prévision des étiquettes de classe) en développant un nouveau critère d'apprentissage semi-supervisé qui exploite un faible nombre de données étiquetées en combinaison avec une grande quantité de données non-étiquetées afin d'apprendre une représentation adaptée à la tâche de classification, et d'obtenir une meilleure performance de classification. Finalement, nous décrivons le fonctionnement général de notre système de détection d'émotions et proposons de nouvelles idées pouvant mener à de futurs travaux.
Resumo:
Cette thèse cible l’étude d’une organisation sociotechnique pluraliste, le Réseau de centres d’excellence ArcticNet, établi depuis 2003 au sein de l’Université Laval et financé par le programme fédéral des Réseaux de centres d’excellence (RCE). Ce programme, effectif depuis 1988, est issu d’une initiative du ministère de l’Industrie Canada et des trois Conseils fédéraux de financement de la recherche scientifique (CRSNG, CRSH et IRSC). Par sa dimension interdisciplinaire et interinstitutionnelle, le RCE ArcticNet sollicite la mise en place de divers accommodements sur une thématique environnementale controversée, celle du développement de l’Arctique canadien côtier. Notre approche se concentre sur la description de ces collaborations pluralistes et l’analyse des stratégies de consensus mises en place par une organisation universitaire médiatrice. Si cette étude illustre le cas d’ArcticNet, elle questionne toutefois deux réalités d’ensemble: (1) D’un point de vue théorique, prépondérant dans cette thèse, les enjeux environnementaux et de développement durable s’inscrivent dans les nouvelles réalités de la production des connaissances portées par une coévolution entre science et société, contribuant à l’expansion des domaines de R&D ciblés; et, (2) D’un point de vue empirique illustratif, les éléments de formation et d’évolution d’un réseau sociotechnique intersectoriel et les stratégies des scientifiques dans la recherche et le développement de l’Arctique canadien côtier présentent un profil basé sur l’accommodement des parties prenantes. Cette recherche adhère au postulat épistémologique des théories des organisations sociotechniques pluralistes, plutôt qu’aux modèles théoriques de la société/économie de la connaissance. L’étude regroupe un total de 23 entrevues recueillies en 2008 et en 2010 auprès de l’administration, de membres scientifiques et de partenaires d’ArcticNet, suivant une logique de témoignage. Elle ouvre ainsi une nouvelle réflexion sur leur milieu de pratique de la science, plus particulièrement des sciences de l’environnement, vers lequel la société actuelle oriente la nouvelle production des connaissances, à travers les divers financements de la recherche et du développement.
Resumo:
Problématique : Le concept d’« Hôpital promoteur de santé » (HPS) a émergé dans le sillon de la Charte d’Ottawa (1986) qui plaide notamment pour une réorientation des services de santé vers des services plus promoteurs de santé. Il cible la santé des patients, du personnel, de la communauté et de l’organisation elle-même. Dans le cadre de la réforme du système de santé au Québec qui vise à rapprocher les services de la population et à faciliter le cheminement de toute personne au sein d’un réseau local de services de santé et de services sociaux (RLS), l’adoption du concept HPS semble constituer une fenêtre d’opportunité pour les CHU, désormais inclus dans des réseaux universitaires intégrés de soins de santé et rattachés aux RLS, pour opérer des changements organisationnels majeurs. Face au peu de données scientifiques sur l’implantation des dimensions des projets HPS, les établissements de santé ont besoin d’être accompagnés dans ce processus par le développement de stratégies claires et d’outils concrets pour soutenir l’implantation. Notre étude porte sur le premier CHU à Montréal qui a décidé d’adopter le concept et d’implanter notamment un projet pilote HPS au sein de son centre périnatal. Objectifs : Les objectifs de la thèse sont 1) d’analyser la théorie d’intervention du projet HPS au sein du centre périnatal; 2) d’analyser l’implantation du projet HPS et; 3) d’explorer l’intérêt de l’évaluation développementale pour appuyer le processus d’implantation. Méthodologie : Pour mieux comprendre l’implantation du projet HPS, nous avons opté pour une étude de cas qualitative. Nous avons d’abord analysé la théorie d’intervention, en procédant à une revue de la littérature dans le but d’identifier les caractéristiques du projet HPS ainsi que les conditions nécessaires à son implantation. En ce qui concerne l’analyse d’implantation, notre étude de cas unique a intégré deux démarches méthodologiques : l’une visant à apprécier le niveau d’implantation et l’autre, à analyser les facteurs facilitants et les contraintes. Enfin, nous avons exploré l’intérêt d’une évaluation développementale pour appuyer le processus d’implantation. À partir d’un échantillonnage par choix raisonnés, les données de l’étude de cas ont été collectées auprès d’informateurs clés, des promoteurs du projet HPS, des gestionnaires, des professionnels et de couples de patients directement concernés par l’implantation du projet HPS au centre périnatal. Une analyse des documents de projet a été effectuée et nous avons procédé à une observation participante dans le milieu. Résultats : Le premier article sur l’analyse logique présente les forces et les faiblesses de la mise en oeuvre du projet HPS au centre périnatal et offre une meilleure compréhension des facteurs susceptibles d’influencer l’implantation. Le second article apprécie le niveau d’implantation des quatre dimensions du projet HPS. Grâce à la complémentarité des différentes sources utilisées, nous avons réussi à cerner les réussites globales, les activités partiellement implantées ou en cours d’implantation et les activités reposant sur une théorie d’intervention inadéquate. Le troisième article met en évidence l’influence des caractéristiques de l’intervention, des contextes externe et interne, des caractéristiques individuelles sur le processus d’implantation à partir du cadre d’analyse de l’implantation développé par Damschroder et al. (2009). Enfin, le dernier article présente les défis rencontrés par la chercheure dans sa tentative d’utilisation de l’évaluation développementale et propose des solutions permettant d’anticiper les difficultés liées à l’intégration des exigences de recherche et d’utilisation. Conclusion : Cette thèse contribue à enrichir la compréhension de l’implantation du projet HPS dans les établissements de santé et, particulièrement, en contexte périnatal. Les résultats obtenus sont intéressants pour les chercheurs et les gestionnaires d’hôpitaux ou d’établissements de santé qui souhaitent implanter ou évaluer les projets HPS dans leurs milieux.
Resumo:
L’explosion de la nanotechnologie a permis l’intégration d’une multitude de nanoparticules dans des produits de consommation. Les nanoparticules d’argent (nAg) sont les plus utilisées à ces fins, selon les derniers recensements disponibles. La plupart des études toxicologiques, à ce jour, ont fait état de l’implication très évidente de l’ion Ag+ dans la toxicité aigüe des nAg; cependant, quelques études ont mis en évidence des effets toxicologiques dus aux nAg. Il y a un certain consensus à propos d’un risque de contamination des eaux douces via leur rejet par les effluents des réseaux d’aqueducs. Puisque les concentrations en Ag+ sont généralement très faibles dans les eaux douces (de l’ordre du pg L-1), de par la formation de complexes non-labiles avec des thiols (organiques et inorganiques) et des sulfures, la toxicité inhérente aux nAg pourrait ne pas être négligeable- comparativement aux tests en laboratoires. Cette étude s’intéressait donc aux mécanismes de bioaccumulation d’argent par l’algue verte C. reinhardtii suite à l’exposition à des nAg de 5 nm (enrobage d’acide polyacrylique). La bioaccumulation d’argent pour l’exposition à Ag+ servait de point de comparaison; également, les abondances de l’ARNm de l’isocitrate lyase 1 (ICL1) et de l’ARNm de Copper Transporter 2 (CTR2) étaient mesurées comme témoins biologiques de la bioaccumulation de Ag+. Les expériences ont été menées en présence d’un tampon organique (NaHEPES, 2 x 10-2 M; Ca2+, 5x 10-5 M) à pH de 7,00. Pour des expositions à temps fixe de 2 heures, la bioaccumulation d’argent pour nAg était supérieure à ce qui était prédit par sa concentration initiale en Ag+; cependant, il n’y avait pas de différence d’abondance des ARNm de ICL1 et de CTR2 entre nAg et Ag+. D’un autre côté, pour une exposition à temps variables, la bioaccumulation d’argent pour nAg était supérieure à ce qui était prédit par sa concentration initiale en Ag+ et une augmentation de l’abondance de l’ARNm de ICL1 était notée pour nAg. Cependant, il n’y avait aucune différence significative au niveau de l’abondance de l’ARNm de CTR2 entre nAg et une solution équivalente en Ag+. L’ajout d’un fort ligand organique (L-Cystéine; log K= 11,5) à une solution de nAg en diminuait radicalement la bioaccumulation d’argent par rapport à nAg-sans ajout de ligand. Par contre, l’abondance des ARNm de ICL1 et de CTR2 étaient stimulées significativement par rapport à une solution contrôle non-exposée à nAg, ni à Ag+. Les résultats suggéraient fortement que les nAg généraient des ions Ag+ au contact de C. reinhardtii.
Resumo:
L’objectif de ce mémoire de maîtrise est de caractériser la distribution axiale des plasmas tubulaires à la pression atmosphérique créés et entretenus par une onde électromagnétique de surface ainsi que d’explorer le potentiel de ces sources pour la synthèse de matériaux et de nanomatériaux. Un précédent travail de thèse, qui avait pour objectif de déterminer les mécanismes à l’origine de la contraction radiale du plasma créé dans des gaz rares, a mis en lumière un phénomène jusque-là inconnu dans les plasmas d’onde de surface (POS). En effet, la distribution axiale varie différemment selon la puissance incidente ce qui constitue une différence majeure par rapport aux plasmas à pression réduite. Dans ce contexte, nous avons réalisé une étude paramétrique des POS à la pression atmosphérique dans l’Ar. À partir de nos mesures de densité électronique, de température d’excitation et de densité d’atomes d’Ar dans un niveau métastable (Ar 3P2), résolues axialement, nous avons conclu que le comportement axial de l’intensité lumineuse avec la puissance n’est pas lié à un changement de la cinétique de la décharge (qui est dépendante de la température des électrons et de la densité d’atomes d’Ar métastables), mais plutôt à une distribution anormale de dissipation de puissance dans le plasma (reliée à la densité d’électrons). Plus précisément, nos résultats suggèrent que ce dépôt anormal de puissance provient d’une réflexion de l’onde dans le fort gradient de densité de charges en fin de colonne, un effet plus marqué pour de faibles longueurs de colonnes à plasma. Ensuite, nous avons effectué une étude spectroscopique du plasma en présence de précurseurs organiques, en particulier le HMDSO pour la synthèse de matériaux organosiliciés et l’IPT pour la synthèse de matériaux organotitaniques. Les POS à la PA sont caractérisés par des densités de charges très élevées (>10^13 cm^-3), permettant ainsi d’atteindre des degrés de dissociation des précurseurs nettement plus élevés que ceux d'autres plasmas froids à la pression atmosphérique comme les décharges à barrière diélectrique. Dans de tels cas, les matériaux synthétisés prennent la forme de nanopoudres organiques de taille inférieure à 100 nm. En présence de faibles quantités d’oxygène dans le plasma, nous obtenons plutôt des nanopoudres à base d’oxyde de silicium (HMDSO) ou à base de titanate de silicium (IPT), avec très peu de carbone.
Resumo:
Le premier volet de ce travail portera sur l’expérience acquise lors d’un stage d’étude à Tokyo, au Japon, dans le groupe de recherche du Pr. Makoto Fujita, une sommité d’envergure internationale dans le domaine de l’auto-assemblage. En continuité avec les plus récents travaux du Pr. Fujita, des systèmes poreux auto-assemblés présentant des cavités fonctionnalisées ont été développés dans le but d’encapsuler des acides gras afin d’en déterminer la structure cristalline. Ces éponges ont été caractérisées par des techniques courantes telles que la spectroscopie à résonance magnétique nucléaire 1H, 13C{1H} et Cosy, la spectrométrie de masse, l’analyse élémentaire, la microscopie optique infrarouge ainsi que la diffraction des rayons X. Une autre approche employée pour obtenir de meilleures propriétés spectroscopiques fut la synthèse de dendrimères métalliques de génération 0. Un nouveau ligand de type 1,3,5-triazine a été synthétisé par une réaction typique de cyclisation de nitrile en présence catalytique d’hydrure de sodium. Des espèces mono-, bis- et trinucléaire de Ru(II) furent synthétisés ainsi que deux espèces hétérométalliques de Ru(II)/Pt(II) et de Ru(II)/Os(II). Tous les complexes obtenus furent caractérisés par spectroscopie à résonance magnétique nucléaire (1H, 13C{1H} et Cosy) à l’état liquide, par spectroscopie de masse à haute résolution et par analyse élémentaire. La génération de dihydrogène à partir de l’espèce hétérométallique a été étudiée. Les propriétés optiques et électroniques ont été analysées par spectroscopie UV-Vis, par analyse de la luminescence, du temps de vie de luminescence, par des analyses de rendement quantique ainsi que par des analyses de voltampérométrie cyclique à balayage. Finalement, dans le but d’améliorer les propriétés spectroscopiques d’absorption de complexes métalliques, nous avons synthétisé une série de polymères homo- et hétérométalliques, intégrant des ligands de type bis(2,2’:6,2’’-terpyridine). Les complexes générés furent caractérisés par diverses techniques tel que la spectroscopie à résonance magnétique nucléaire (1H, 13C{1H} et Cosy) à l’état liquide, par spectroscopie de masse à haute résolution ainsi que par analyse élémentaire. Les propriétés optiques et électroniques ont été analysées par spectroscopie UV-Vis, par analyse de la luminescence, du temps de vie de luminescence, par des analyses de rendement quantique ainsi que par des analyses de voltampérométrie cyclique à balayage.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
Entre 1378 et 1417, l’Église est d’abord divisée entre deux, puis entre trois papes concurrents. Alors qu’Urbain VI et ses successeurs s’installent à Rome, Clément VII et son successeur rentrent en Avignon. Cette thèse répertorie et analyse les différentes expériences normandes en réponse au Grand Schisme d’Occident. Les engagements normands pour résoudre le schisme sont pluriels et s’expriment différemment selon les milieux. S’appuyant sur des sources diverses telles que le Registre des suppliques des archives du Vatican, les archives de l’Université de Paris et les archives locales, elle met en évidence les différents courants qui ont coexisté en Normandie en réaction au Grand Schisme d’Occident. Alors que la noblesse normande était généralement favorable aux papes d’Avignon, reconnus officiellement par le roi de France, d’importants courants de résistance envers cette papauté se sont aussi manifestés dans les milieux universitaires et au sein du clergé normand, poussant même certains à choisir l’exil en terre urbaniste. Ces exilés normands, bien que peu nombreux, ont exercé une influence considérable et ont été peu étudiés en tant que groupe auparavant. Parmi l’importante majorité de ceux qui restèrent dans l’obédience avignonnaise, plusieurs intellectuels normands furent pourtant reconnus comme étant d’acerbes critiques, voire des ennemis de Clément VII et de Benoît XIII. Les liens qu’ont maintenus les exilés normands avec leurs collègues restés en terre clémentiste ont joué un rôle appréciable dans le rapprochement des obédiences opposées au début du XVe siècle. La présente thèse permet de mettre en lumière les multiples attitudes normandes en réponse au schisme, d’approfondir la connaissance portant sur les milieux normands touchés par la crise, ainsi que sur les débats qui l’ont entourée, et de poursuivre la réflexion sur la question de l’obéissance et des réseaux normands à l’œuvre pendant cette période.