997 resultados para PCR quantitatif en temps réel
Resumo:
Cette thèse sur l’oeuvre de Christian Bobin (1951-) porte aussi et avant tout sur le lyrisme et le désenchantement contemporains. En posant pour horizon ces deux objets de discours, j’interprète le discours éthique et poétique sur l’« enchantement simple » chez l’auteur français. Dans une perspective herméneutique, il s'agit d'éprouver l'hypothèse selon laquelle les oeuvres de Bobin véhiculent un discours poétique « répliquant » (Ricoeur) à un certain discours intellectuel dominant, s'énonçant contre lui, mais aussi en réitérant plusieurs de ses credo. La première partie annonce la posture théorique et la méthode (comparatiste), puis définit le lyrisme et le désenchantement comme horizon d’interprétation. La seconde partie, qui interroge l’identité « poéthique » (Pinson) de l’auteur (entendu comme catégorie du texte), dévoile la manière dont l’auteur prend acte du désenchantement et du nihilisme : en masculinisant le désenchantement, le reliant au logos, et en féminisant l’enchantement, l’associant au muthos. Le parti pris du temps authentique est soutenu par la valorisation de conduites et d’attitudes temporelles relevant de l’éthique de l’authenticité (Rousseau), alors que le parti pris du féminin correspond à la valorisation d’attitudes relevant de l’éthique de la bonté (Levinas). Puisque la première éthique mise sur le temps du sujet et que la seconde favorise le temps de l’autre, un premier paradoxe émerge au coeur des messages spéculatifs véhiculés, dont on prend la mesure grâce au discours de l’auteur sur le temps, les hommes, les femmes et la bonté. Dans la troisième partie, je mets au jour le grand projet éthique dont l’auteur investit son oeuvre : écrire pour prendre soin, soigner. Après avoir défini ce que j’appelle « l’écriture du care » chez Bobin, je m’attarde aux figures féminines fondatrices de l’oeuvre et constate que l’ambition est triple chez l’auteur : premièrement, prendre soin du présent, deuxièmement, protéger les femmes de la misogynie et troisièmement, revaloriser les attitudes care qui leur sont traditionnellement reconnues et comprendre, dédramatiser, esthétiser leur « folie ». Apparaît alors un second paradoxe : la valorisation simultanée de figures charnelles inscrites dans la temporalité (maternité) et de figures atemporelles, hors temps (extase). Enfin, un regard sur les « femmes à venir » bobiniennes montrera trois figures promises à la pratique du soin promue par l’auteur. Au final, c’est non seulement la poéthique bobinienne qui est mise en lumière, mais aussi des postures éthiques et poétiques centrales en Occident, que plusieurs poètes lyriques adoptent « en temps de détresse » (Hölderlin).
Resumo:
Une préoccupation grandissante face aux risques biologiques reliés aux maladies infectieuses est palpable tant au niveau international que national ou provincial. Des maladies émergentes telles que le SRAS ou la grippe A/H1N1 ont amené une prise en charge des risques pandémiques et à l’élaboration de mesures d’urgence pour maîtriser ces risques : développer une culture de sécurité est devenu une priorité de recherche de l’OMS. Malgré tout, peu d’écrits existent face à cette volonté de sécuriser la santé et le bien-être par toute une série de dispositifs au sein desquels les discours occupent une place importante en matière de culture de sécurité face aux risques biologiques. Une réflexion sociopolitique était nécessaire pour les infirmières qui sont aux premières loges en dispensant des soins à la population dans une perspective de prévention et de contrôle des infections (PCI) dans laquelle elles se spécialisent. Dès lors, ce projet avait pour buts d’explorer la perception du risque et de la sécurité face aux maladies infectieuses auprès des infirmières cliniciennes et gestionnaires québécoises; d’explorer plus spécifiquement l'existence ou l'absence de culture de sécurité dans un centre de santé et de services sociaux québécois (CSSS); et d’explorer les discours en présence dans le CSSS en matière de sécurité et de risques biologiques face aux maladies infectieuses et comment ces discours de sécurité face aux risques biologiques se traduisent dans le quotidien des infirmières. Les risques biologiques sont perçus comme identifiables, mesurables et évitables dans la mesure où les infirmières appliquent les mesures de préventions et contrôle des infections, ce qui s’inscrit dans une perspective positiviste du risque (Lupton, 1999). La gestion de ces risques se décline au travers de rituels de purification et de protection afin de se protéger de toute maladie infectieuse. Face à ces risques, une culture de sécurité unique est en émergence dans le CSSS dans une perspective de prévention de la maladie. Toutefois, cette culture de sécurité désirée est confrontée à une mosaïque de cultures qui couvrent différentes façons d’appliquer ou non les mesures de PCI selon les participants. La contribution de cette recherche est pertinente dans ce nouveau domaine de spécialité que constituent la prévention et le contrôle des infections pour les infirmières québécoises. Une analyse critique des relations de pouvoir tel qu’entendu par Foucault a permis de soulever les questions de surveillance infirmière, de politique de l’aveu valorisée, de punition de tout écart à l’application rigoureuse des normes de PCI, de contrôle de la part des cadres infirmiers et d’assujettissement des corps relevant des mécanismes disciplinaires. Elle a permis également de documenter la présence de dispositifs de sécurité en lien avec la tenue de statistiques sur les patients qui sont répertoriés en tant que cas infectieux, mais également en termes de circulation des personnes au sein de l’établissement. La présence d’un pouvoir pastoral est perceptible dans la traduction du rôle d’infirmière gestionnaire qui doit s’assurer que ses équipes agissent de la bonne façon et appliquent les normes de PCI privilégiées au sein du CSSS afin de réguler les taux d’infections nosocomiales présents dans l’établissement. En cas de non-respect des mesures de PCI touchant à l’hygiène des mains ou à la vaccination, l’infirmière s’expose à des mesures disciplinaires passant de l’avertissement, la relocalisation, l’exclusion ou la suspension de l’emploi. Une culture du blâme a été décrite par la recherche d’un coupable au sein de l’institution, particulièrement en temps de pandémie. Au CSSS, l’Autre est perçu comme étant à l’origine de la contamination, tandis que le Soi est perçu comme à l’abri de tout risque à partir du moment où l’infirmière respecte les normes d’hygiène de vie en termes de saines habitudes alimentaires et d’activité physique. Par ailleurs, les infirmières se doivent de respecter des normes de PCI qu’elles connaissent peu, puisque les participantes à la recherche ont souligné le manque de formation académique et continue quant aux maladies infectieuses, aux risques biologiques et à la culture de sécurité qu’elles considèrent pourtant comme des sujets priorisés par leur établissement de santé. Le pouvoir produit des effets sur les corps en les modifiant. Cette étude ethnographique critique a permis de soulever les enjeux sociopolitiques reliés aux discours en présence et de mettre en lumière ce que Foucault a appelé le gouvernement des corps et ses effets qui se capillarisent dans le quotidien des infirmières. Des recherches ultérieures sont nécessaires afin d’approfondir ce champ de spécialité de notre discipline infirmière et de mieux arrimer la formation académique et continue aux réalités infectieuses cliniques.
Resumo:
Ce mémoire porte sur les mécanismes de relaxation et de fuite des excitons dans des systèmes de boîtes quantiques(BQs) d’InAs/InP. Les systèmes sont composés d’un sub- strat volumique d’InP, appelé matrice (M), d’un puits quantique d’InAs, nommé couche de mouillage (CM), et des familles de BQs d’InAs. La distinction entre les familles est faite par le nombre de monocouche d’épaisseur des boîtes qui sont beaucoup plus larges que hautes. Une revue de littérature retrace les principaux mécanismes de relaxation et de fuite des excitons dans les systèmes. Ensuite, différents modèles portant sur la fuite thermique des excitons des BQs sont comparés. Les types de caractérisations déjà produites et les spécifications des croissances des échantillons sont présentés. L’approche adoptée pour ce mémoire a été de caractériser temporellement la dynamique des BQs avec des mesures d’absorbtion transitoire et de photoluminescence résolue en temps (PLRT) par addition de fréquences. L’expérience d’absorption transitoire n’a pas fait ressortir de résultats très probants, mais elle est expliquée en détails. Les mesures de PLRT ont permis de suivre en température le temps de vie effectif des excitons dans des familles de BQs. Ensuite, avec un modèle de bilan détaillé, qui a été bien explicité, il a été possible d’identifier le rôle de la M et de la CM dans la relaxation et la fuite des excitons dans les BQs. Les ajustements montrent plus précisément que la fuite de porteurs dans les BQs se fait sous la forme de paires d’électrons-trous corrélées.
Conventional and Reciprocal Approaches to the Forward and Inverse Problems of Electroencephalography
Resumo:
Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.
Resumo:
Mesures effectuées dans le laboratoire de caractérisation optique des semi-conducteurs du Prof. Richard Leonelli du département de physique de l'université de Montréal. Les nanofils d'InGaN/GaN ont été fournis par le groupe du Prof. Zetian Mi du département de génie électrique et informatique de l'université McGill.
Resumo:
Nous étudions la gestion de centres d'appels multi-compétences, ayant plusieurs types d'appels et groupes d'agents. Un centre d'appels est un système de files d'attente très complexe, où il faut généralement utiliser un simulateur pour évaluer ses performances. Tout d'abord, nous développons un simulateur de centres d'appels basé sur la simulation d'une chaîne de Markov en temps continu (CMTC), qui est plus rapide que la simulation conventionnelle par événements discrets. À l'aide d'une méthode d'uniformisation de la CMTC, le simulateur simule la chaîne de Markov en temps discret imbriquée de la CMTC. Nous proposons des stratégies pour utiliser efficacement ce simulateur dans l'optimisation de l'affectation des agents. En particulier, nous étudions l'utilisation des variables aléatoires communes. Deuxièmement, nous optimisons les horaires des agents sur plusieurs périodes en proposant un algorithme basé sur des coupes de sous-gradients et la simulation. Ce problème est généralement trop grand pour être optimisé par la programmation en nombres entiers. Alors, nous relaxons l'intégralité des variables et nous proposons des méthodes pour arrondir les solutions. Nous présentons une recherche locale pour améliorer la solution finale. Ensuite, nous étudions l'optimisation du routage des appels aux agents. Nous proposons une nouvelle politique de routage basé sur des poids, les temps d'attente des appels, et les temps d'inoccupation des agents ou le nombre d'agents libres. Nous développons un algorithme génétique modifié pour optimiser les paramètres de routage. Au lieu d'effectuer des mutations ou des croisements, cet algorithme optimise les paramètres des lois de probabilité qui génèrent la population de solutions. Par la suite, nous développons un algorithme d'affectation des agents basé sur l'agrégation, la théorie des files d'attente et la probabilité de délai. Cet algorithme heuristique est rapide, car il n'emploie pas la simulation. La contrainte sur le niveau de service est convertie en une contrainte sur la probabilité de délai. Par après, nous proposons une variante d'un modèle de CMTC basé sur le temps d'attente du client à la tête de la file. Et finalement, nous présentons une extension d'un algorithme de coupe pour l'optimisation stochastique avec recours de l'affectation des agents dans un centre d'appels multi-compétences.
Resumo:
Les processus Markoviens continus en temps sont largement utilisés pour tenter d’expliquer l’évolution des séquences protéiques et nucléotidiques le long des phylogénies. Des modèles probabilistes reposant sur de telles hypothèses sont conçus pour satisfaire la non-homogénéité spatiale des contraintes fonctionnelles et environnementales agissant sur celles-ci. Récemment, des modèles Markov-modulés ont été introduits pour décrire les changements temporels dans les taux d’évolution site-spécifiques (hétérotachie). Des études ont d’autre part démontré que non seulement la force mais également la nature de la contrainte sélective agissant sur un site peut varier à travers le temps. Ici nous proposons de prendre en charge cette réalité évolutive avec un modèle Markov-modulé pour les protéines sous lequel les sites sont autorisés à modifier leurs préférences en acides aminés au cours du temps. L’estimation a posteriori des différents paramètres modulants du noyau stochastique avec les méthodes de Monte Carlo est un défi de taille que nous avons su relever partiellement grâce à la programmation parallèle. Des réglages computationnels sont par ailleurs envisagés pour accélérer la convergence vers l’optimum global de ce paysage multidimensionnel relativement complexe. Qualitativement, notre modèle semble être capable de saisir des signaux d’hétérogénéité temporelle à partir d’un jeu de données dont l’histoire évolutive est reconnue pour être riche en changements de régimes substitutionnels. Des tests de performance suggèrent de plus qu’il serait mieux ajusté aux données qu’un modèle équivalent homogène en temps. Néanmoins, les histoires substitutionnelles tirées de la distribution postérieure sont bruitées et restent difficilement interprétables du point de vue biologique.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
Problématique : De par les fonctions qu’elles exercent à différentes étapes du continuum de soins, les infirmières jouent un rôle de premier plan dans l’offre des services de santé. La qualité des services repose en grande partie sur du personnel infirmier motivé, judicieusement déployé et travaillant dans des conditions qui permettent d’optimiser leur expérience de travail. Cependant, différentes études suggèrent que les modalités actuelles d’organisation du travail ne permettent pas toujours de créer des conditions et des environnements susceptibles d’optimiser le travail des infirmières et leur qualité de vie au travail (Institute of Medicine, 2001; Hickam & al., 2003; Shojania, Duncan, McDonald, & Wachter, 2001). Une meilleure compréhension des conceptions et préférences des infirmières est utile pour guider les actions dans les milieux de soins visant à améliorer l’organisation du travail infirmier. Objectifs : Cette recherche qualitative descriptive a pour but d’explorer les conceptions et préférences des infirmières par rapport aux modalités d’organisation de leur travail pouvant améliorer leur qualité de vie au travail, dans un contexte de centre hospitalier et plus spécifiquement, dans une unité de médecine. Méthodologie : Des entrevues semi-dirigées ont été effectuées auprès de huit infirmières. La technique d’analyse de contenu a été utilisée pour analyser les résultats de l’étude. Le modèle conceptuel de l’organisation du travail de Filion-Côté qui a été utilisé s’oriente autour des processus de soins, la dotation en personnel et l’environnement de travail. Résultats : Cette étude a établi que les conceptions de l’organisation du travail partagées par les infirmières touchent deux principales dimensions soit la définition des rôles et la répartition des tâches ainsi que l’organisation du travail en temps que modes de coordination du travail et d’interaction entre les membres de l’équipe de travail. Cette analyse a aussi démontré que les principales préférences des infirmières sont exprimées à propos des éléments ayant trait à la disponibilité adéquate du personnel nécessaire à l’exécution des différentes tâches, le soutien du supérieur immédiat, le soutien de l’administration au développement professionnel et de la pratique ainsi que l’aménagement des conditions matérielles de travail. On peut aussi constater que plusieurs préférences exprimées par les infirmières donnent écho à leurs conceptions de l’organisation du travail. Conclusion : Cette étude a permis de comprendre les conceptions et les préférences des infirmières par rapport à l’organisation de leur travail. Elle aura ainsi permis d’identifier plusieurs modalités sur lesquels les gestionnaires peuvent agir pour développer des projets d’organisation du travail, soit la dotation en personnels des milieux des soins, le soutien des équipes, la communication et l’aménagement de l’environnement physique des soins. De plus, les infirmières ont elles-mêmes un rôle à jouer pour modifier positivement leur milieu de travail et peuvent influencer plusieurs de ces modalités.
Resumo:
Avec la mise en place dans les dernières années d'une grappe d'ordinateurs (CALYS) dédiés aux calculs de modèles stellaires pour notre groupe de recherche, il nous est désormais possible d'exploiter à leur plein potentiel les modèles d'atmosphères hors équilibre thermodynamique local (HETL) en y incluant des éléments métalliques. Ce type de modèles, plutôt exigeant en temps de calcul, est toutefois essentiel pour analyser correctement les spectres d'étoiles chaudes comme les sous-naines de type O (sdO). Les travaux effectués dans le cadre de cette thèse ont comme point commun l'utilisation de tels modèles d'atmosphères pour faire l'analyse spectroscopique d'étoiles sous-naines chaudes dans des contextes variés. Le coeur de cette thèse porte sur Bd+28 4211, une étoile standard de type sdO très chaude, dans laquelle le problème des raies de Balmer, qui empêche de reproduire ces dernières avec une unique, et réaliste, combinaison de paramètres atmosphériques, est bien présent. Dans un premier temps nous présentons une analyse approfondie de son spectre ultraviolet (UV). Cela nous permet de déterminer les abondances de métaux dans l'atmosphère de l'étoile et de contraindre sa température effective et sa gravité de surface. Par la suite, ces résultats servent de point de départ à l'analyse du spectre optique de l'étoile, dans lequel le problème des raies de Balmer se fait sentir. Cette analyse nous permet de conclure que l'inclusion des abondances métalliques propres à l'étoile dans les modèles d'atmosphères HETL n'est pas suffisant pour surmonter le problème des raies de Balmer. Toutefois, en y incluant des abondances dix fois solaires, nous arrivons à reproduire correctement les raies de Balmer et d'hélium présentes dans les spectres visibles lors d'un ajustement de paramètres. De plus, les paramètres résultants concordent avec ceux indiqués par le spectre UV. Nous concluons que des sources d'opacité encore inconnues ou mal modélisées sont à la source de ce problème endémique aux étoiles chaudes. Par la suite nous faisons une étude spectroscopique de Feige 48, une étoile de type sdB pulsante particulièrement importante. Nous arrivons à reproduire très bien le spectre visible de cette étoile, incluant les nombreuses raies métalliques qui s'y trouvent. Les paramètres fondamentaux obtenus pour Feige 48 corroborent ceux déjà présents dans la littérature, qui ont été obtenus avec des types de modèles d'atmosphères moins sophistiqués, ce qui implique que les effets HETL couplés à la présence de métaux ne sont pas importants dans l'atmosphère de cette étoile particulière. Nous pouvons donc affirmer que les paramètres de cette étoile sont fiables et peuvent servir de base à une future étude astérosismologique quantitative. Finalement, 38 étoiles sous-naines chaudes appartenant à l'amas globulaire omega Centauri ont été analysées afin de déterminer, outre leur température et gravité de surface, leurs abondances d'hélium et de carbone. Nous montrons qu'il existe une corrélation entre les abondances photosphériques de ces deux éléments. Nous trouvons aussi des différences entre les étoiles riches en hélium de l'amas du celles du champ. Dans leur ensemble, nos résultats remettent en question notre compréhension du mécanisme de formation des sous-naines riches en hélium.
Resumo:
La concentration locale des messagers chimiques sécrétés par les cellules peut être mesurée afin de mieux comprendre les mécanismes moléculaires liés à diverses maladies, dont les métastases du cancer. De nouvelles techniques analytiques sont requises pour effectuer ces mesures locales de marqueurs biologiques à proximité des cellules. Ce mémoire présentera le développement d’une nouvelle technique basée sur la réponse plasmonique sur des leviers AFM, permettant d’étudier les réactions chimiques et biologiques à la surface des leviers grâce au phénomène de résonance des plasmons de surface (SPR), ainsi qu’à la diffusion Raman exaltée par effet de pointe (TERS). En effet, il est possible de localiser l’amplification du signal Raman à la pointe d’un levier AFM, tout comme le principe de la diffusion Raman exaltée par effet de surface (SERS) basée sur la diffusion de la lumière par des nanoparticules métalliques, et permettant une large amplification du signal Raman. La surface du levier est recouverte d’une nano-couche métallique d’or, suivi par des réactions biologiques pour l’immobilisation d’un récepteur moléculaire, créant ainsi un biocapteur sur la pointe du levier. Une détection secondaire utilisant des nanoparticules d’or conjuguées à un anticorps secondaire permet également une amplification du signal SPR et Raman lors de la détection d’antigène. Ce mémoire démontrera le développement et la validation de la détection de l’immunoglobuline G (IgG) sur la pointe du levier AFM.Dans des projets futurs, cette nouvelle technique d’instrumentation et d’imagerie sera optimisée grâce à la création d’un micro-détecteur protéique généralement adapté pour l’étude de la communication cellulaire. En intégrant le signal SPR à la microscopie AFM, il sera alors possible de développer des biocapteurs SPR couplés à une sonde à balayage, ce qui permettra d’effectuer une analyse topographique et de l’environnement chimique d’échantillons cellulaires en temps réel, pour la mesure des messagers moléculaires sécrétés dans la matrice extracellulaire, lors de la communication cellulaire.
Resumo:
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.
Resumo:
L'écotourisme est souvent perçu comme une panacée capable de concilier le développement économique, la protection de l'environnement et le bien-être des communautés autour des aires protégées des pays en développement. La réalité sur le terrain est cependant tout autre, car son caractère complexe, politique et transcalaire est trop souvent négligé lors de la mise en œuvre des interventions. Le but de ce projet de recherche est de jeter un nouvel éclairage sur le développement de l'écotourisme dans les aires protégées des pays du Sud à travers une analyse critique des pratiques et des discours qui lui sont associés. Adoptant un cadre conceptuel dérivé de l'écologie politique, nous avons cherché à comprendre comment l'écotourisme affecte l'accès aux ressources naturelles pour différents acteurs sociaux. L'approche méthodologique s'appuie sur une étude de cas essentiellement qualitative qui s'attarde à un projet spécifique amorcé à Chi Phat, dans une forêt protégée des Cardamomes, au sud-ouest du Cambodge. Elle fait appel à l'analyse documentaire et discursive, à l'observation participante ainsi qu'à plus de 80 entretiens semi-directifs auprès d'acteurs clés. Nos résultats montrent d'abord qu'en matière d'écotourisme au Cambodge, il y a absence de lignes directrices claires et on observe très peu de collaboration, et ce, à tous les niveaux. Cela n'est pas étranger au fait que le gouvernement actuel accorde en général la priorité au développement devant la conservation. Ensuite, le projet d'écotourisme permet à Wildlife Alliance de justifier le maintien de la forêt protégée. Cette ONG se démarque par ailleurs des autres organisations au pays par son approche plus musclée. Le pouvoir dont elle jouit et les résultats qu'elle obtient sur le terrain tiennent en sa capacité à mobiliser, en temps opportun, l'ensemble des moyens disponibles pour contrôler l'accès. Globalement, nous pouvons affirmer que les principaux acteurs qui voient leur accès aux ressources naturelles touché négativement sont les paysans. Finalement, nous proposons deux ajouts au cadre conceptuel, soit la considération de l'aspect géographique de l'exclusion et l'introduction de modalités d'exclusion, qui permettent à notre avis une analyse plus juste de la situation.
Resumo:
Un modèle mathématique de la propagation de la malaria en temps discret est élaboré en vue de déterminer l'influence qu'un déplacement des populations des zones rurales vers les zones urbaines aurait sur la persistance ou la diminution de l'incidence de la malaria. Ce modèle, sous la forme d'un système de quatorze équations aux différences finies, est ensuite comparé à un modèle analogue mais en temps continu, qui prend la forme d'équations différentielles ordinaires. Une étude comparative avec la littérature récente permet de déterminer les forces et les faiblesses de notre modèle.
Resumo:
La maladie de Parkinson (PD) a été uniquement considérée pour ses endommagements sur les circuits moteurs dans le cerveau. Il est maintenant considéré comme un trouble multisystèmique, avec aspects multiples non moteurs y compris les dommages intérêts pour les circuits cognitifs. La présence d’un trouble léger de la cognition (TCL) de PD a été liée avec des changements structurels de la matière grise, matière blanche ainsi que des changements fonctionnels du cerveau. En particulier, une activité significativement réduite a été observée dans la boucle corticostriatale ‘cognitive’ chez des patients atteints de PD-TCL vs. PD non-TCL en utilisant IRMf. On sait peu de cours de ces modèles fonctionnels au fil du temps. Dans cette étude, nous présentons un suivi longitudinal de 24 patients de PD non démente qui a subi une enquête neuropsychologique, et ont été séparés en deux groupes - avec et sans TCL (TCL n = 11, non-TCL n = 13) en fonction du niveau 2 des recommandations de la Movement Disrders Society pour le diagnostic de PD-TCL. Ensuite, chaque participant a subi une IRMf en effectuant la tâche de Wisconsin pendant deux sessions, 19 mois d'intervalle. Nos résultats longitudinaux montrent qu'au cours de la planification de période de la tâche, les patients PD non-TCL engageant les ressources normales du cortex mais ils ont activé en plus les zones corticales qui sont liés à la prise de décision tel que cortex médial préfrontal (PFC), lobe pariétal et le PFC supérieure, tandis que les PD-TCL ont échoué pour engager ces zones en temps 2. Le striatum n'était pas engagé pour les deux groupes en temps 1 et pour le groupe TCL en temps 2. En outre, les structures médiales du lobe temporal étaient au fil du temps sous recrutés pour TCL et Non-TCL et étaient positivement corrélés avec les scores de MoCA. Le cortex pariétal, PFC antérieur, PFC supérieure et putamen postérieur étaient négativement corrélés avec les scores de MoCA en fil du temps. Ces résultats révèlent une altération fonctionnelle pour l’axe ganglial-thalamo-corticale au début de PD, ainsi que des niveaux différents de participation corticale pendant une déficience cognitive. Cette différence de recrutement corticale des ressources pourrait refléter longitudinalement des circuits déficients distincts de trouble cognitive légère dans PD.