209 resultados para Spectre conditionnel
Resumo:
Le surenroulement de l’ADN est important pour tous les processus cellulaires qui requièrent la séparation des brins de l’ADN. Il est régulé par l’activité enzymatique des topoisomérases. La gyrase (gyrA et gyrB) utilise l’ATP pour introduire des supertours négatifs dans l’ADN, alors que la topoisomérase I (topA) et la topoisomérase IV (parC et parE) les éliminent. Les cellules déficientes pour la topoisomérase I sont viables si elles ont des mutations compensatoires dans un des gènes codant pour une sous-unité de la gyrase. Ces mutations réduisent le niveau de surenroulement négatif du chromosome et permettent la croissance bactérienne. Une de ces mutations engendre la production d'une gyrase thermosensible. L’activité de surenroulement de la gyrase en absence de la topoisomérase I cause l’accumulation d’ADN hyper-surenroulé négativement à cause de la formation de R-loops. La surproduction de la RNase HI (rnhA), une enzyme qui dégrade l’ARN des R-loops, permet de prévenir l’accumulation d’un excès de surenroulement négatif. En absence de RNase HI, des R-loops sont aussi formés et peuvent être utilisés pour déclencher la réplication de l’ADN indépendamment du système normal oriC/DnaA, un phénomène connu sous le nom de « constitutive stable DNA replication » (cSDR). Pour mieux comprendre le lien entre la formation de R-loops et l’excès de surenroulement négatif, nous avons construit un mutant conditionnel topA rnhA gyrB(Ts) avec l’expression inductible de la RNase HI à partir d’un plasmide. Nous avons trouvé que l’ADN des cellules de ce mutant était excessivement relâché au lieu d'être hypersurenroulé négativement en conditions de pénurie de RNase HI. La relaxation de l’ADN a été montrée comme étant indépendante de l'activité de la topoisomérase IV. Les cellules du triple mutant topA rnhA gyrB(Ts) forment de très longs filaments remplis d’ADN, montrant ainsi un défaut de ségrégation des chromosomes. La surproduction de la topoisomérase III (topB), une enzyme qui peut effectuer la décaténation de l’ADN, a corrigé les problèmes de ségrégation sans toutefois restaurer le niveau de surenroulement de l’ADN. Nous avons constaté que des extraits protéiques du mutant topA rnhA gyrB(Ts) pouvaient inhiber l’activité de surenroulement négatif de la gyrase dans des extraits d’une souche sauvage, suggérant ainsi que la pénurie de RNase HI avait déclenché une réponse cellulaire d’inhibition de cette activité de la gyrase. De plus, des expériences in vivo et in vitro ont montré qu’en absence de RNase HI, l’activité ATP-dépendante de surenroulement négatif de la gyrase était inhibée, alors que l’activité ATP-indépendante de cette enzyme demeurait intacte. Des suppresseurs extragéniques du défaut de croissance du triple mutant topA rnhA gyrB(Ts) qui corrigent également les problèmes de surenroulement et de ségrégation des chromosomes ont pour la plupart été cartographiés dans des gènes impliqués dans la réplication de l’ADN, le métabolisme des R-loops, ou la formation de fimbriae. La deuxième partie de ce projet avait pour but de comprendre les rôles des topoisomérases de type IA (topoisomérase I et topoisomérase III) dans la ségrégation et la stabilité du génome de Escherichia coli. Pour étudier ces rôles, nous avons utilisé des approches de génétique combinées avec la cytométrie en flux, l’analyse de type Western blot et la microscopie. Nous avons constaté que le phénotype Par- et les défauts de ségrégation des chromosomes d’un mutant gyrB(Ts) avaient été corrigés en inactivant topA, mais uniquement en présence du gène topB. En outre, nous avons démontré que la surproduction de la topoisomérase III pouvait corriger le phénotype Par- du mutant gyrB(Ts) sans toutefois corriger les défauts de croissance de ce dernier. La surproduction de topoisomérase IV, enzyme responsable de la décaténation des chromosomes chez E. coli, ne pouvait pas remplacer la topoisomérase III. Nos résultats suggèrent que les topoisomérases de type IA jouent un rôle important dans la ségrégation des chromosomes lorsque la gyrase est inefficace. Pour étudier le rôle des topoisomérases de type IA dans la stabilité du génome, la troisième partie du projet, nous avons utilisé des approches génétiques combinées avec des tests de « spot » et la microscopie. Nous avons constaté que les cellules déficientes en topoisomérase I avaient des défauts de ségrégation de chromosomes et de croissance liés à un excès de surenroulement négatif, et que ces défauts pouvaient être corrigés en inactivant recQ, recA ou par la surproduction de la topoisomérase III. Le suppresseur extragénique oriC15::aph isolé dans la première partie du projet pouvait également corriger ces problèmes. Les cellules déficientes en topoisomérases de type IA formaient des très longs filaments remplis d’ADN d’apparence diffuse et réparti inégalement dans la cellule. Ces phénotypes pouvaient être partiellement corrigés par la surproduction de la RNase HI ou en inactivant recA, ou encore par des suppresseurs isolés dans la première partie du projet et impliques dans le cSDR (dnaT18::aph et rne59::aph). Donc, dans E. coli, les topoisomérases de type IA jouent un rôle dans la stabilité du génome en inhibant la réplication inappropriée à partir de oriC et de R-loops, et en empêchant les défauts de ségrégation liés à la recombinaison RecA-dépendante, par leur action avec RecQ. Les travaux rapportés ici révèlent que la réplication inappropriée et dérégulée est une source majeure de l’instabilité génomique. Empêcher la réplication inappropriée permet la ségrégation des chromosomes et le maintien d’un génome stable. La RNase HI et les topoisomérases de type IA jouent un rôle majeur dans la prévention de la réplication inappropriée. La RNase HI réalise cette tâche en modulant l’activité de surenroulement ATP-dependante de la gyrase, et en empêchant la réplication à partir des R-loops. Les topoisomérases de type IA assurent le maintien de la stabilité du génome en empêchant la réplication inappropriée à partir de oriC et des R-loops et en agissant avec RecQ pour résoudre des intermédiaires de recombinaison RecA-dépendants afin de permettre la ségrégation des chromosomes.
Resumo:
Les nanotubes de carbone et le graphène sont des nanostructures de carbone hybridé en sp2 dont les propriétés électriques et optiques soulèvent un intérêt considérable pour la conception d’une nouvelle génération de dispositifs électroniques et de matériaux actifs optiquement. Or, de nombreux défis demeurent avant leur mise en œuvre dans des procédés industriels à grande échelle. La chimie des matériaux, et spécialement la fonctionnalisation covalente, est une avenue privilégiée afin de résoudre les difficultés reliées à la mise en œuvre de ces nanostructures. La fonctionnalisation covalente a néanmoins pour effet de perturber la structure cristalline des nanostructures de carbone sp2 et, par conséquent, d’affecter non seulement lesdites propriétés électriques, mais aussi les propriétés optiques en émanant. Il est donc primordial de caractériser les effets des défauts et du désordre dans le but d’en comprendre les conséquences, mais aussi potentiellement d’en exploiter les retombées. Cette thèse traite des propriétés optiques dans l’infrarouge des nanotubes de carbone et du graphène, avec pour but de comprendre et d’expliquer les mécanismes fondamentaux à l’origine de la réponse optique dans l’infrarouge des nanostructures de carbone sp2. Soumise à des règles de sélection strictes, la spectroscopie infrarouge permet de mesurer la conductivité en courant alternatif à haute fréquence des matériaux, dans une gamme d’énergie correspondant aux vibrations moléculaires, aux modes de phonons et aux excitations électroniques de faible énergie. Notre méthode expérimentale consiste donc à explorer un espace de paramètres défini par les trois axes que sont i. la dimensionnalité du matériau, ii. le potentiel chimique et iii. le niveau de désordre, ce qui nous permet de dégager les diverses contributions aux propriétés optiques dans l’infrarouge des nanostructures de carbone sp2. Dans un premier temps, nous nous intéressons à la spectroscopie infrarouge des nanotubes de carbone monoparois sous l’effet tout d’abord du dopage et ensuite du niveau de désordre. Premièrement, nous amendons l’origine couramment acceptée du spectre vibrationnel des nanotubes de carbone monoparois. Par des expériences de dopage chimique contrôlé, nous démontrons en effet que les anomalies dans lespectre apparaissent grâce à des interactions électron-phonon. Le modèle de la résonance de Fano procure une explication phénoménologique aux observations. Ensuite, nous établissons l’existence d’états localisés induits par la fonctionnalisation covalente, ce qui se traduit optiquement par l’apparition d’une bande de résonance de polaritons plasmons de surface (nanoantenne) participant au pic de conductivité dans le térahertz. Le dosage du désordre dans des films de nanotubes de carbone permet d’observer l’évolution de la résonance des nanoantennes. Nous concluons donc à une segmentation effective des nanotubes par les greffons. Enfin, nous montrons que le désordre active des modes de phonons normalement interdits par les règles de sélection de la spectroscopie infrarouge. Les collisions élastiques sur les défauts donnent ainsi accès à des modes ayant des vecteurs d’onde non nuls. Dans une deuxième partie, nous focalisons sur les propriétés du graphène. Tout d’abord, nous démontrons une méthode d’électrogreffage qui permet de fonctionnaliser rapidement et à haute densité le graphène sans égard au substrat. Par la suite, nous utilisons l’électrogreffage pour faire la preuve que le désordre active aussi des anomalies dépendantes du potentiel chimique dans le spectre vibrationnel du graphène monocouche, des attributs absents du spectre d’un échantillon non fonctionnalisé. Afin d’expliquer le phénomène, nous présentons une théorie basée sur l’interaction de transitions optiques intrabandes, de modes de phonons et de collisions élastiques. Nous terminons par l’étude du spectre infrarouge du graphène comportant des îlots de bicouches, pour lequel nous proposons de revoir la nature du mécanisme de couplage à l’œuvre à la lumière de nos découvertes concernant le graphène monocouche.
Resumo:
Avec la mise en place dans les dernières années d'une grappe d'ordinateurs (CALYS) dédiés aux calculs de modèles stellaires pour notre groupe de recherche, il nous est désormais possible d'exploiter à leur plein potentiel les modèles d'atmosphères hors équilibre thermodynamique local (HETL) en y incluant des éléments métalliques. Ce type de modèles, plutôt exigeant en temps de calcul, est toutefois essentiel pour analyser correctement les spectres d'étoiles chaudes comme les sous-naines de type O (sdO). Les travaux effectués dans le cadre de cette thèse ont comme point commun l'utilisation de tels modèles d'atmosphères pour faire l'analyse spectroscopique d'étoiles sous-naines chaudes dans des contextes variés. Le coeur de cette thèse porte sur Bd+28 4211, une étoile standard de type sdO très chaude, dans laquelle le problème des raies de Balmer, qui empêche de reproduire ces dernières avec une unique, et réaliste, combinaison de paramètres atmosphériques, est bien présent. Dans un premier temps nous présentons une analyse approfondie de son spectre ultraviolet (UV). Cela nous permet de déterminer les abondances de métaux dans l'atmosphère de l'étoile et de contraindre sa température effective et sa gravité de surface. Par la suite, ces résultats servent de point de départ à l'analyse du spectre optique de l'étoile, dans lequel le problème des raies de Balmer se fait sentir. Cette analyse nous permet de conclure que l'inclusion des abondances métalliques propres à l'étoile dans les modèles d'atmosphères HETL n'est pas suffisant pour surmonter le problème des raies de Balmer. Toutefois, en y incluant des abondances dix fois solaires, nous arrivons à reproduire correctement les raies de Balmer et d'hélium présentes dans les spectres visibles lors d'un ajustement de paramètres. De plus, les paramètres résultants concordent avec ceux indiqués par le spectre UV. Nous concluons que des sources d'opacité encore inconnues ou mal modélisées sont à la source de ce problème endémique aux étoiles chaudes. Par la suite nous faisons une étude spectroscopique de Feige 48, une étoile de type sdB pulsante particulièrement importante. Nous arrivons à reproduire très bien le spectre visible de cette étoile, incluant les nombreuses raies métalliques qui s'y trouvent. Les paramètres fondamentaux obtenus pour Feige 48 corroborent ceux déjà présents dans la littérature, qui ont été obtenus avec des types de modèles d'atmosphères moins sophistiqués, ce qui implique que les effets HETL couplés à la présence de métaux ne sont pas importants dans l'atmosphère de cette étoile particulière. Nous pouvons donc affirmer que les paramètres de cette étoile sont fiables et peuvent servir de base à une future étude astérosismologique quantitative. Finalement, 38 étoiles sous-naines chaudes appartenant à l'amas globulaire omega Centauri ont été analysées afin de déterminer, outre leur température et gravité de surface, leurs abondances d'hélium et de carbone. Nous montrons qu'il existe une corrélation entre les abondances photosphériques de ces deux éléments. Nous trouvons aussi des différences entre les étoiles riches en hélium de l'amas du celles du champ. Dans leur ensemble, nos résultats remettent en question notre compréhension du mécanisme de formation des sous-naines riches en hélium.
Resumo:
Dans la première partie du présent mémoire, l’essai Entre poésie, réalisme magique et postmodernisme : Madman Claro, je tente d’abord de définir les concepts du réalisme magique, de la littérature postmoderne et de la « mi-fiction » (qui englobe peut-être les deux premiers) afin de situer l’oeuvre de l’écrivain et traducteur français Claro au sein du spectre réflexif-mimétique que je propose. Je décris ensuite sa vision de l’écriture et de la littérature avant d’analyser la dissolution des personnages principaux du roman CosmoZ entraînée par le mauvais traitement qu’ils reçoivent aux mains des médecins et du Magicien d’Oz. J’essaie de montrer en quoi ces devenirs-autres sont liés au début et à la fin du monde (qui, lui, ne cesse de recommencer) dans cet ouvrage fabuleusement réaliste où Claro rend des personnages fictifs réels et les fait vivre des aventures rocambolesques et tragiques au début du XXe siècle en Europe et en Amérique. La deuxième partie du mémoire, intitulée Les Fleurs compliquées, est un recueil de nouvelles surréalistes qui demeurent toutefois ancrées dans le monde contemporain et qui mettent parfois en scène des versions diffractées de figures réelles. Alors que le premier récit mêle des contraintes formelles à des questions ontologiques et généalogiques, la deuxième nouvelle, davantage marquée par l’oralité, porte sur une expérience extracorporelle dans une boîte de nuit montréalaise. S’ensuit alors une version satirique et cauchemardesque de la désastreuse tournée 777 de la chanteuse Rihanna, rebaptisée La Reina, qui culmine en un combat inspiré des légendes amérindiennes. La dernière nouvelle comporte six courtes parties enchâssées racontant un même récit de façon non linéaire. Globalement, je vise une certaine saturation baroque : le travail sur l’image, les élans imaginatifs débridés et le rythme jouent donc un rôle important dans ces récits. Sur le plan thématique, je consacre autant mon attention aux silences éloquents du quotidien qu’au legs du colonialisme occidental sur la culture populaire d’aujourd’hui, le tout présenté d’un point de vue féministe et volontairement « ex-centrique ». Enfin, j’essaie, sur un fond d’humour tirant sur le noir, d’accorder une place aux voix marginalisées tout en évitant l’écueil du sentimentalisme et du moralisme sermonneur.
Resumo:
Ce mémoire, composé d'un article en collaboration avec Monsieur Luc Vinet et Vincent X. Genest, est la suite du travail effectué sur les systèmes quantiques super-intégrables définis par des Hamiltoniens de type Dunkl. Plus particulièrement, ce mémoire vise l'analyse du problème de Coulomb-Dunkl dans le plan qui est une généralisation du système quantique de l'atome d'hydrogène impliquant des opérateurs de réflexion sur les variables x et y. Le modèle est défini par un potentiel en 1/r. Nous avons tout d'abord remarqué que l'Hamiltonien est séparable en coordonnées polaires et que les fonctions d'onde s'écrivent en termes de produits de polynômes de Laguerre généralisés et des harmoniques de Dunkl sur le cercle. L'algèbre générée par les opérateurs de symétrie nous a également permis de confirmer le caractère maximalement super-intégrable du problème de Coulomb-Dunkl. Nous avons aussi pu écrire explicitement les représentations de cette même algèbre. Nous avons finalement trouvé le spectre de l'énergie de manière algébrique.
Resumo:
Le virus de l’hépatite C (VHC) infecte ~185 millions d’individus dans le monde. Malgré le développement des nouvelles thérapies dirigées contre le VHC, on compte deux millions de nouvelles infections chaque année, en particulier dans les pays sous-développés et les populations marginalisées. Comme pour la plupart des virus à infection chronique, le développement d’un vaccin prophylactique efficace est limité par le manque de caractérisation des déterminants de la mémoire immunitaire protectrice lors des épisodes de réinfection naturelle chez les êtres humains. Le VHC représente un modèle unique au sein des virus à infection chronique pour étudier l’immunité protectrice. En effet ~30% des patients infectés par le VHC peuvent être guéris suite à un premier épisode d’infection spontanément. Dans cette thèse, nous avons étudié l’immunité protectrice contre le VHC dans une cohorte d’utilisateurs de drogues par injection qui sont à risque d’être infectés ou réinfectés. Notre hypothèse est que la majorité des patients qui ont résolu une première infection par le VHC sont protégés contre le développement d’une infection chronique s’ils sont réexposés. Cette immunité protectrice est associée à la présence des cellules T CD4 et CD8 polyfonctionnelles qui possèdent des fréquences, magnitudes et avidités élevées. La capacité protectrice des cellules T mémoire contre les séquences variables du VHC est dépendante de la diversité et flexibilité du répertoire de leurs récepteurs de cellules T (TCR), qui reconnaissent les séquences variables des épitopes ciblés. Notre premier objectif était de définir et détailler les déterminants de l’immunité protectrice conférée par les cellules T spécifiques du VHC. Nos résultats ont montré que la protection pendant l’épisode de réinfection était associée à une augmentation de la magnitude et du spectre des réponses spécifiques par les cellules T CD4 et CD8 polyfonctionnelles, ainsi que par l’apparition d’une population de cellules T tétramère+ CD8+ effectrices qui expriment faiblement le marqueur CD127 (CD127lo) lors du pic de la réponse. Chez les patients qui ont développé une infection chronique pendant l’épisode de réinfection, nous avons observé une expansion très limitée des cellules T CD4 et CD8. Le séquençage des épitopes ciblés par les cellules T CD8 chez ces patients qui sont non-protégés a montré que les séquences de ces épitopes sont différentes des séquences de référence qui étaient utilisées pour tous les essais immunologiques de cette étude. Le deuxième objectif était d’analyser la dynamique du répertoire des TCRs des cellules T CD8 spécifiques chez les patients protégés versus les patients non-protégés. Nos résultats ont montré que le répertoire des cellules T CD8 spécifiques est plus focalisé que chez les patients protégés. En plus, nous avons observé que les clonotypes qui forment le répertoire chez les patients protégés sont distincts de ceux chez les patients non-protégés. Ces clonotypes chez les patients protégés ont montré de plus grandes avidité et polyfonctionnalité que leurs homologues chez les patients non-protégés. En conclusion, nos résultats suggèrent que la protection contre le développement d’une infection chronique pendant l’épisode de réinfection par le VHC est associée à une augmentation de la magnitude, du spectre et de la fonctionnalité des réponses des cellules T spécifiques, ainsi qu’à un répertoire des TCRs plus focalisé composé des clonotypes distincts qui possèdent de plus grandes avidité et polyfonctionnalité que chez les patients non-protégés. L’homologie des séquences des souches virales entre les différents épisodes de l’infection est un déterminant majeur de l’établissement d’une protection efficace. Ces résultats ont donc des implications très importantes pour le développement d’un vaccin prophylactique contre le VHC et d’autres virus à infection chronique.
Resumo:
Rapport de stage présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en criminologie
Resumo:
Avec la sécularisation, la laïcité et la diversité croissantes de la société québécoise, la place de la religion en général et du catholicisme en particulier se sont vues remises en question. Cette situation a d’ailleurs mené à la mise en place de deux commissions : l’une sur la place de la religion à l’école (1999) et l’autre sur les pratiques d’accommodements reliées aux différences culturelles (2008). Ces deux commissions auront fourni énormément d’informations sur les rapports qu’entretiennent encore les Québécois avec le catholicisme. Cette recherche a donc pour but de faire le point sur certains aspects du catholicisme au Québec à partir d’une perspective reposant principalement sur des instruments heuristiques issus des écrits signés « Jacques Derrida ». Pour ce faire, nous nous appuierons sur les travaux du Groupe de travail sur la religion à l’école, de la consultation générale sur la place de la religion à l’école et de la commission de consultation sur les pratiques d’accommodement reliées aux différences culturelles. Nous posons comme hypothèse que de manière générale, les Québécois entretiennent avec le catholicisme, des rapports « archivaux », c’est-à-dire conditionnés par des perceptions de ce dernier informées par son passé, plutôt que par son présent. De plus, ces perceptions du catholicisme, probablement développées dans le sillage de la Révolution tranquille et peut-être même un peu avant, nourriraient l’existence de « spectres » qui viendraient hanter les rapports des Québécois à tout ce qui touche le religieux et la diversité culturelle. En ce sens, il s’agit d’une dimension essentielle de ce que nous appellerions la « postmodernité » religieuse québécoise. Pour illustrer ce propos, nous mènerons une analyse de contenu documentaire. Premièrement, nous procéderons à l’analyse thématique de centaines de documents (rapports de recherche, rapports officiels, mémoires) déposés lors de ces débats. Le logiciel QDA Miner permettra d’effectuer une analyse documentaire en identifiant les passages thématiques reliés à la recherche. Nous procéderons ensuite à une analyse plus fine de ces extraits sélectionnés à partir de perspectives philosophiques provenant principalement du philosophe Jacques Derrida.
Resumo:
La leptine circule en proportion de la masse graisseuse du corps et la transduction de son signal à travers la forme longue de son récepteur via un certain nombre de voies neurales , y compris MAPK, PI3-K ,AMPK et JAK2 - STAT3 . Il faut noter que STAT3 constitue une voie clée au récepteur de la leptine par laquelle la leptine module l'expression des gènes impliqués dans la régulation du bilan énergétique. La plupart des recherches ont porté sur la fonction du récepteur de la leptine au sein de l' hypothalamus, en particulier la fonction du récepteur de la leptine dans le noyau arqué. Toutefois, les récepteurs de la leptine sont également exprimés sur les neurones dopaminergiques de l'aire tégmentale ventrale et la leptine agit sur cette région du cerveau pour influencer la prise alimentaire, la motivation, la locomotion, l'anxiété et la transmission de la dopamine. De plus, la leptine active la STAT3 dans les dopaminergiques et GABAergiques populations neuronales. Bien que ces résultats contribuent à notre compréhension des multiples actions de la leptine dans le système nerveux central, il reste à résoudre les cellules et la signalisation du récepteur de la leptine qui sont responsables des effets neurocomportementaux de la leptine dans le mésencéphale. Visant à déterminer la contribution de la voie de signalisation STAT3 dans les neurones dopaminergiques du mésencéphale, nous avons généré une lignée de souris knockout conditionnel dans lequel l'activation du gène de STAT3 sur son résidu tyrosine 705 ( Tyr 705 ) est absent spécifiquement dans les neurones dopaminergiques. Avec l'utilisation de ce modèle de souris génétique, nous avons évalué l'impact de l'ablation de la signalisation STAT3 dans les neurones dopaminergiques sur un certain nombre de fonctions liées à la dopamine, y compris l'alimentation, la locomotion, les comportements liés à la récompense, l'émotion et la libération de dopamine dans le noyau accumbens. Fait intéressant, nous avons observé un dimorphisme sexuel dans le phénotype des souris STAT3DAT-KO. L'activation de la voie de signalisation STAT3 dans les neurones dopaminergiques est responsable de l'action de la leptine dans la réduction de la locomotion, récompense liée à l'activité physique, et de l'augmentation de la libération et de la disponibilité de la dopamine chez les souris mâles. Cependant, il ne module pas le comportement émotionnel. D'autre part, les souris femelles STAT3DAT-KO augmentent les niveaux d'anxiété et les niveaux plasmatiques de corticostérone, sans provoquer de changements de la dépression. Cependant, la perte d'activation de STAT3 dans les neurones dopaminergiques ne module pas le comportement locomoteur chez les souris femelles. Notamment, les actions de la leptine dans le mésencéphale pour influencer le comportement alimentaire ne sont pas médiées par l'activation de STAT3 dans les neurones dopaminergiques, considérant que les souris mâles et femelles ont un comportement alimentaire normal. Nos résultats démontrent que la voie de signalisation STAT3 dans les neurones dopaminergiques est responsable des effets anxiolytiques de la leptine, et soutient l'hypothèse que la leptine communique l'état d'énergie du corps (i.e. la relation entre la dépense et les apports énergétiques) pour les régions mésolimbiques pour atténuer les effets de motivation et de récompense de plusieurs comportements qui servent à réhabiliter ou à épuiser les réserves d'énergie. En outre, ce travail souligne l'importance d'étudier la modulation de la signalisation de la leptine dans différente types de cellules, afin d'identifier les voies de signalisation et les mécanismes cellulaires impliqués dans les différentes fonctions neuro-comportementales de la leptine.
Resumo:
Les façons d'aborder l'étude du spectre du laplacien sont multiples. Ce mémoire se concentre sur les partitions spectrales optimales de domaines planaires. Plus précisément, lorsque nous imposons des conditions aux limites de Dirichlet, nous cherchons à trouver la ou les partitions qui réalisent l'infimum (sur l'ensemble des partitions à un certain nombre de composantes) du maximum de la première valeur propre du laplacien sur tous ses sous-domaines. Dans les dernières années, cette question a été activement étudiée par B. Helffer, T. Hoffmann-Ostenhof, S. Terracini et leurs collaborateurs, qui ont obtenu plusieurs résultats analytiques et numériques importants. Dans ce mémoire, nous proposons un problème analogue, mais pour des conditions aux limites de Neumann cette fois. Dans ce contexte, nous nous intéressons aux partitions spectrales maximales plutôt que minimales. Nous cherchons alors à vérifier le maximum sur toutes les $k$-partitions possibles du minimum de la première valeur propre non nulle de chacune des composantes. Cette question s'avère plus difficile que sa semblable dans la mesure où plusieurs propriétés des valeurs propres de Dirichlet, telles que la monotonicité par rapport au domaine, ne tiennent plus. Néanmoins, quelques résultats sont obtenus pour des 2-partitions de domaines symétriques et des partitions spécifiques sont trouvées analytiquement pour des domaines rectangulaires. En outre, des propriétés générales des partitions spectrales optimales et des problèmes ouverts sont abordés.
Resumo:
Les hétérojonctions formées de deux matériaux, un donneur et un accepteur (D/A), sont la base de la majorité des mélanges photovoltaïques organiques. Les mécanismes de séparation des charges dans ces systèmes représentent aujourd'hui l'un des sujets les plus chauds et les plus débattus dans ce domaine. Nous entrons au coeur de ce débat en choisissant un système D/A à base de phtalocyanine de cuivre (CuPc) et de fullerène (C60). Pour sonder les états excités de nos molécules et obtenir de l'information sur les phénomènes à l'interface D/A, nous réalisons une expérience pompe-sonde, appelée absorption photoinduite (PIA). Nous y mesurons le changement fractionnaire de transmission au travers de l'échantillon. Les mesures de PIA sont réalisées à l'état de quasi équilibre, à T=10K. Nous observons une modulation prononcée dans la région du photoblanchiment de l'état fondamental qui nous indique que la pompe induit un décalage du spectre d'absorption de l'état fondamental. Ce décalage peut être expliqué par deux processus : soit l'échantillon est chauffé par la pompe (effet thermique) ou bien des charges sont créées à l'interface entre les deux matériaux (effet Stark). La dépendance en température du spectre d'absorption entre 10K et 290K montre une signature thermique pour un changement de température de 80K. Grâce au ratio des raies Raman anti-Stokes et Stokes, nous démontrons que la pompe chauffe l'échantillon de 34 K, température insuffisante pour attribuer notre signal à un effet thermique. Nous évaporons ensuite la bicouche CuPc/C60 sur de l'ITO et du saphir, substrats qui possèdent des conductivités thermiques différentes et nous observons le même signal de PIA, excluant par le fait même l'hypothèse de l'effet thermique. Puisque notre étude est comparable à la spectroscopie à effet Stark, nous procédons à une analyse similaire en comparant notre signal de PIA au spectre de la transmittance et à ses dérivés première et seconde. Nous observons alors que notre signal reproduit presque parfaitement la dérivée seconde de la transmittance. Ces résultats sont conformes à une signature optique d'effet Stark due à la création de charges à l'interface D/A.
Resumo:
Cette recherche s’intéresse aux enjeux de l’habitat de demain de la génération des baby-boomers, tout particulièrement ceux nés entre 1945 et 1953, qui arrivent aujourd’hui à la retraite. C’est au carrefour de la vision de ce que signifie habiter selon des auteurs comme Benoit Goetz ( 2011), des philosophes comme Heidegger (1958), Bachelard (1957), Benjamin (1955), Büber (1962) ou encore Deleuze (1980) d’une part, soulignant les facteurs de porosité et les liens aux autres, et d’autre part les caractéristiques des baby-boomers telles que présentées par Jean François Sirinelli (2003) et Josée Garceau (2012), que se situe la recherche. Cette génération informée entend rester active et pratique des « adeptions » qui influencent par les gestes un savoir habiter et par là son habitat. L’étude de terrain a sondé les aspirations des baby-boomers en ce qui concerne leur choix résidentiel pour l’avenir, pour comprendre sur quelles valeurs et vers quels buts leur projet se construit. Le choix de méthodologies qualitatives s’appuie sur le visionnement préalable d’un film récent : Et si on vivait tous ensemble. Des entretiens semi-dirigés, auprès de cinq baby-boomers, de 60 à 65 ans, effectués en deux phases avec verbatim approuvés,étaient basés sur trois thèmes : la mémoire, l’adeption et le projet. Entre autres résultats, sont confirmés avec variantes, plusieurs concepts théoriques, comme ceux de porosité et d’ouverture par la fenêtre à la fois physique et virtuelle, mais soulignent le spectre de la maison de retraite et des préoccupations financières concernant l’avenir d’un habitat nécessairement autonome. Cette génération imprégnée par le monde technologique veut avoir accès à tout ce que propose la modernité sans pour autant perdre le sens de l’historicité de leur vie. Nés dans un monde en bouillonnement, les baby-boomers ont réinventé chaque étape de leur existence, ce qui laisse préfigurer que cette génération s’apprête à réinventer la retraite et ses sites domiciliaires. Aussi l’approche design devra-t-elle complètement se renouveler pour ces nouveaux usagers.
Resumo:
Face à l’opacité interprétative et la faillite du langage auxquelles nous nous heurtons dans l’analyse des œuvres-chocs de Sarah Kane, quelle approche nous permettrait de commenter exhaustivement les formes et les moyens mis en œuvre par la dramaturge pour imprimer sa marque dans l’esprit du spectateur contemporain? Le théâtre postdramatique, paradigme élaboré par Hans-Thies Lehmann, présenterait a priori un dispositif pertinent pour faire lumière sur des problématiques contemporaines cruciales en jeu dans l’œuvre de Kane. Aucunement univoque, car soumis à l’interprétation et à l’engagement du spectateur, le caractère politique des pièces, pourtant spectral, s’avère ici essentiel. Ce spectre politique se laisse percevoir à travers le prisme de la violence et la nécessité du choc semble être son parti pris pour redéfinir le rôle du théâtre dans nos sociétés modernes caractérisées par la circulation massive des images à travers les nouveaux médias. Un lien de coresponsabilité de l’artiste et du spectateur se crée: l’œuvre nous interroge, spectateur/lecteur, sur la part mystérieuse de ce fond de cruauté humaine et sur notre complicité dans l’omniprésence de la violence à travers la consommation de ses produits. Mettant en relief les caractères transgressifs venant bousculer nos affects à travers des références à la « culture d’en bas » et un exercice des limites du spectaculaire centré sur l’obscène et le détournement des codes de la pornographie, cette lecture postdramatique de Cleansed et de Phaedra’s love entend restituer à l’œuvre de Kane son énergie pour un changement qui passe par un éveil des sens.
Resumo:
Introduction: Il est important de minimiser le gaspillage et les risques associés aux soins sans valeur. La gestion de l’utilisation des antimicrobiens vise à optimiser leur emploi et doit être adaptée au milieu et à sa population. Objectifs: Évaluer les profiles d’utilisation actuels des antimicrobiens et fixer des objectifs pour les interventions en matière de gestion des antimicrobiens. Méthode: Vingt-et-un hôpitaux du Nouveau-Brunswick offrant des soins de courte durée en médecine générale, en chirurgie et en pédiatrie ont pris part à une enquête sur la prévalence ponctuelle. Tous les patients admis aux hôpitaux participants et ayant reçu au moins un antimicrobien systémique ont été inscrits à l’étude. Les principaux critères d’évaluation étaient le profil d’utilisation, selon l’indication et l’antimicrobien prescrit, le bienfondé de l’utilisation et la durée de la prophylaxie chirurgicale. Des statistiques descriptives et un test d’indépendance 2 furent utilisés pour l’analyse de données. Résultats: L’enquête a été menée de juin à août 2012. Un total de 2244 patients ont été admis pendant la durée de l’étude et 529 (23,6%) ont reçu un antimicrobien. Au total, 691 antimicrobiens ont été prescrits, soit 587 (85%) pour le traitement et 104 (15%) pour la prophylaxie. Les antimicrobiens les plus souvent prescrits pour le traitement (n=587) étaient des classes suivantes : quinolones (25,6%), pénicillines à spectre étendu (10,2%) et métronidazole (8,5%). Les indications les plus courantes du traitement étaient la pneumonie (30%), les infections gastro-intestinales (16%) et les infections de la peau et des tissus mous (14%). Selon des critères définis au préalable, 23% (n=134) des ordonnances pour le traitement étaient inappropriées et 20% (n=120) n’avaient aucune indication de documentée. Les domaines où les ordonnances étaient inappropriées étaient les suivants : défaut de passage de la voie intraveineuse à la voie orale (n=34, 6%), mauvaise dose (n=30, 5%), traitement d’une bactériurie asymptomatique (n=24, 4%) et doublement inutile (n=22, 4%). Dans 33% (n=27) des cas, les ordonnances pour la prophylaxie chirurgicale étaient pour une période de plus de 24 heures. Conclusions: Les résultats démontrent que les efforts de gestion des antimicrobiens doivent se concentrer sur les interventions conventionnelles de gestion de l’utilisation des antimicrobiens, l’amélioration de la documentation, l’optimisation de l’utilisation des quinolones et la réduction au minimum de la durée de la prophylaxie chirurgicale.
Resumo:
L’objectif de cette recherche est la création d’une plateforme en ligne qui permettrait d’examiner les différences individuelles de stratégies de traitement de l’information visuelle dans différentes tâches de catégorisation des visages. Le but d’une telle plateforme est de récolter des données de participants géographiquement dispersés et dont les habiletés en reconnaissance des visages sont variables. En effet, de nombreuses études ont montré qu’il existe de grande variabilité dans le spectre des habiletés à reconnaître les visages, allant de la prosopagnosie développementale (Susilo & Duchaine, 2013), un trouble de reconnaissance des visages en l’absence de lésion cérébrale, aux super-recognizers, des individus dont les habiletés en reconnaissance des visages sont au-dessus de la moyenne (Russell, Duchaine & Nakayama, 2009). Entre ces deux extrêmes, les habiletés en reconnaissance des visages dans la population normale varient. Afin de démontrer la faisabilité de la création d’une telle plateforme pour des individus d’habiletés très variables, nous avons adapté une tâche de reconnaissance de l’identité des visages de célébrités utilisant la méthode Bubbles (Gosselin & Schyns, 2001) et avons recruté 14 sujets contrôles et un sujet présentant une prosopagnosie développementale. Nous avons pu mettre en évidence l’importance des yeux et de la bouche dans l’identification des visages chez les sujets « normaux ». Les meilleurs participants semblent, au contraire, utiliser majoritairement le côté gauche du visage (l’œil gauche et le côté gauche de la bouche).