138 resultados para fréquences spatiales
Resumo:
«Building Blocks: Children’s Literature and the Formation of a Nation, 1750-1825» examine la façon dont la littérature pour enfants imprègne les jeunes lecteurs avec un sens de nationalisme et d'identité nationale à travers la compréhension des espaces et des relations spatiales. La thèse étudie les œuvres d’enfants par Thomas Day, Sarah Fielding, Mary Wollstonecraft, Richard Lovell et Maria Edgeworth, Charles et Mary Lamb, Sarah Trimmer, Lucy Peacock, Priscilla Wakefield, John Aikin, et Anna Laetitia Barbauld. Les différents sujets thématiques reflètent la façon dont les frontières entre les dimensions extérieures et intérieures, entre le monde physique et le domaine psychologique, sont floues. En s'appuyant sur les travaux de penseurs éducatifs, John Locke et Jean-Jacques Rousseau, les écritures pour les enfants soulignent l'importance des expériences sensorielles qui informent l’évolution interne des individus. En retour, la projection de l'imagination et l'investissement des sentiments aident à former la manière dont les gens interagissent avec le monde matériel et les uns envers les autres afin de former une nation. En utilisant une approche Foucaldienne, cette thèse montre comment la discipline est inculquée chez les enfants et les transforme en sujets réglementés. Grâce à des confessions et des discours, les enfants souscrivent à la notion de surveillance et de transparence tandis que l'appréciation de l'opinion publique encourage la pratique de la maîtrise de soi. Les enfants deviennent non seulement des ébauches, sensibles à des impressions, mais des corps d'écriture lisibles. Les valeurs et les normes de la société sont internalisées pendant que les enfants deviennent une partie intégrale du système qu'ils adoptent. L'importance de la visibilité est également soulignée dans la popularité du système de Linné qui met l'accent sur l'observation et la catégorisation. L'histoire naturelle dans la littérature enfantine renforce la structure hiérarchique de la société, ce qui souligne la nécessité de respecter les limites de classes et de jouer des rôles individuels pour le bien-être de la collectivité. Les connotations religieuses dans l'histoire naturelle peuvent sembler justifier l'inégalité des classes, mais elles diffusent aussi des messages de charité, de bienveillance et d'empathie, offrant une alternative ou une forme d’identité nationale «féminine» qui est en contraste avec le militarisme et le nationalisme patricien. La seconde moitié de la thèse examine comment la théorie des « communautés imaginées » de Benedict Anderson devient une possibilité à travers le développement du goût national et une compréhension de l'interconnexion entre les individus. Le personnage du barde pointe à la centralité de l'esprit communautaire dans l'identité nationale. Parallèlement à la commercialisation croissante de produits culturels et nationaux durant cette période, on retrouve l’augmentation de l’attachement affectif envers les objets et la nécessité de découvrir l'authentique dans la pratique de la réflexion critique. La propriété est redéfinie à travers la question des «vrais» droits de propriété et devient partagée dans l'imaginaire commun. Des cartes disséquées enseignent aux enfants comment visualiser des espaces et des frontières et conceptualisent la place de l’individu dans la société. Les enfants apprennent que des actions disparates effectuées dans la sphère domestique ont des répercussions plus importantes dans le domaine public de la nation.
Resumo:
Le caribou forestier est une espèce menacée au Canada, la principale hypothèse au déclin des populations étant l’intensification de la prédation provoquée par les perturbations anthropiques du paysage. Afin de faire face à cette situation, il est nécessaire d’étudier et comprendre l’impact de l’environnement sur les interactions prédateur-proies entre le caribou et le loup, ainsi qu’avec l’orignal, qui est sa principale proie alternative. Pour cela, cette thèse présente la conception d’un modèle centré sur l’individu des déplacements de ces trois espèces en fonction de leur environnement, dont résulteront les interactions prédateur-proies. Afin de permettre l’application de ce modèle sur de longues périodes, et donc pour un environnement changeant, une méthodologie a été développée, qui s’articule atour de deux aspects principaux. Tout d’abord, la notion de niveaux d’émergence est introduite, permettant d’ordonner les comportements observables du système selon leurs interdépendances, afin de choisir comme trait du modèle un com- portement correspondant au domaine d’applicabilité visé. Ordonner les comportements selon leurs niveaux d’émergence permet également d’identifier la redondance entre les patrons, qui peut être à l’origine d’un phénomène de sur-apprentissage lorsqu’ils sont utilisés lors de la calibration. Dans un second temps, un nouveau protocole pour la calibration et la validation du ou des traits choisis à l’aide des niveaux d’émergence, nommé réplication de système basé sur l’individu (Individual Based System Replication - IBSRtion) est également présenté. Ce protocole met l’emphase sur la modélisation directe, contrairement au principal protocole existant, la modélisation orientée patrons (Pattern Oriented Modelling - POM), et permet une approche empirique en générant artificiellement des données non disponibles ou ne pouvant être récoltées par des études de terrains. IBSRtion a également l’avantage de pouvoir être intégrée dans POM, afin de contribuer à la création d’une méthodologie universelle pour la conception de modèles centrés sur l’individu. Le processus de conception de ce modèle aura entre autre permis de faire une synthèse des connaissances et d’identifier certaines lacunes. Une étude visant à palier le manque de connaissances satisfaisantes sur les réponses comportementales à court-terme des proies face au risque de prédation a notamment permis d’observer que celles-ci sont une combinaison de comportements chroniques et éphémères, et que les mécanismes qui en sont à l’origine sont complexes et non-linéaires. Le résultat de ce travail est un modèle complexe utilisant de nombreux sous-modèles, et calibré de façon empirique, applicable à une grande variété d’environnements. Ce modèle a permis de tester l’impact de l’enfeuillement sur les relations prédateur-proies. Des simulations ont été effectuées pour différentes quantités d’enfeuillement, suivant deux configurations spatiales différentes. Les résultats de simulation suggèrent que des plans d’aménagement considérant également l’habitat de l’orignal pourraient être bénéfiques pour le caribou forestier, car ils permettraient d’améliorer la ségrégation spatiale entre les deux espèces, et donc entre le caribou et le loup. En le couplant avec un module de naissances et de morts naturelles ainsi qu’un modèle d’évolution du paysage, ce modèle permettra par la suite d’évaluer l’impact de plans d’aménagement forestier sur la viabilité des populations de caribou forestier.
Resumo:
L'adoption des technologies de réseaux sans-fil de type WiFi a connu une croissance impressionnante ces dernières années. Cette vague de popularité ne semble pas vouloir s'estomper, il est estimé que 84 millions d’appareils seront vendus en 2007 totalisant des revenus de 3.7 milliards de dollars. Devant cette forte demande, les fabricants d’appareils de télécommunications ont songés à développer des produits encore plus performants. Appuyé par la norme IEEE 802.16, un consortium du nom de WiMAX Forum a regroupé 350 membres dans le but de promouvoir des produits standardisés portant la marque WiMAX. À l'inverse des premières versions du WiFi, le WiMAX sera doté de mécanismes de sécurité beaucoup plus fiables. L'avantage du WiMAX, comme pour plusieurs de ses concurrents, repose sur sa capacité d'opérer sur une large bande de fréquences, réglementées ou non. Sa portée théorique de 50 Km et son débit escompté de 75 Mbit/s a capté l'attention des fournisseurs de services qui cherchent à réduire leurs coûts d'exploitations mais également de divers organismes gouvernementaux qui espèrent améliorer les services de communications dans les communautés des régions éloignées. Grâce à l'appui du ministre des Affaires indiennes et du nord canadien, le territoire du Nunavut a mis sur pied un réseau à large bande qui dessert actuellement l’ensemble de ses 29 communautés sur tout son territoire. La possibilité de couvrir une superficie de plusieurs kilomètres ramène à la surface le concept d’omniprésence ou de « Pervasive computing ». Cette notion représente l’intégration des technologies dans notre entourage afin de rendre nos interactions avec celle-ci plus naturelles. Nos déplacements dans cet environnement pourraient être facilités puisque les ordinateurs seraient en mesure de détecter et réagir à notre présence pour nous offrir des solutions personnalisées. Les déploiements de réseaux de type WiMAX sont déjà en cours dans plusieurs pays, d'après la situation actuelle du marché, il est envisageable de voir une forte adoption de cette forme de diffusion d’informations dans les prochaines années. Le présent document trace un résumé des applications liées au WiMAX et discute de certaines problématiques engendrées par ce type de réseau.
Resumo:
Les distributions spatiales des racines fines de Quercus rubra L. (CHR), Populus deltoides x nigra (DN3570) (PEH) et d’une culture fourragère (FOUR) ont été étudiées dans un système agroforestier de culture intercalaire (SCI) du sud du Québec (Canada). L’étude ne révèle pas d’enracinement plus profond des arbres en SCI, mais des profils superficiels à l’instar de nombreuses espèces d’arbres en plantations ou en milieu naturel. Une séparation spatiale existe entre les systèmes racinaires du FOUR et des CHR dont la densité relative selon la profondeur est plus faible que celle de la culture de 0 à 10 cm, mais plus élevée de 10 à 30 cm. Les PEH ne présentent pas d’adaptation racinaire et les hautes valeurs de densités de longueur racinaires (FRLD) de surface près du tronc entraînent une diminution de 45 % de la densité racinaire de surface du fourrage, suggérant une forte compétition pour les ressources du sol. L’étude du rendement agricole a d’ailleurs révélé des réductions de biomasse fourragère particulièrement près des PEH. Cependant, les résultats d’une analyse à composantes principales suggèrent un impact secondaire de la compétition racinaire sur le rendement agricole, et une plus grande importance de la compétition pour la lumière. L’impact des PEH à croissance rapide sur la culture est plus grand que celui du CHR. Cependant, ils seront récoltés plus rapidement et l’espace libéré favorisera la croissance de la culture intercalaire. Cet aspect dynamique des SCI les rapproche des écosystèmes naturels et devrait être réfléchi et approfondi pour leur succès futur.
Resumo:
Cette thèse avait pour objectif général d’approfondir nos connaissances sur les rêves dysphoriques (mauvais rêves et cauchemars), selon deux axes. Premièrement, nous avons voulu éclaircir les implications méthodologiques reliées aux différentes mesures de la fréquence de rappel de rêves (articles 1 et 2). Deuxièmement, nous avons voulu étudier un aspect encore peu exploré des rêves dysphoriques : leur contenu (article 3). Dans la première étude, nous avons comparé systématiquement différentes méthodes rétrospectives et prospectives utilisées pour mesurer la fréquence des cauchemars et des mauvais rêves chez 411 participants. En plus de reproduire les résultats d’études antérieures selon lesquelles les mesure rétrospectives sous-estiment la fréquence des rêves dysphoriques, nous avons démontré que ces fréquences n’étaient pas affectées de manière différentielle par le format de la mesure prospective (journaux de rêves narratifs ou à choix de réponse). Dans la deuxième étude, nous nous sommes intéressés à la fréquence de rappel onirique en général (i.e. de tous les rêves) auprès d'un échantillon de 358 participants pour approfondir les résultats relatifs à la comparaison entre les deux types de journaux de rêves obtenus dans la première étude. Nos résultats soulignent que la fréquence de rappel obtenue par un journal à choix de réponse est plus élevée que celle obtenue d’un journal narratif, et que le présumé effet d’augmentation de rappel attribué aux mesures prospectives est limité dans le temps. Ces résultats suggèrent que des facteurs motivationnels sont impliqués dans la tenue d’un journal de rêves, et que dans le cas des journaux narratifs, ces facteurs outrepasseraient les facteurs attentionnels favorisant le rappel onirique. Dans la troisième étude, nous avons comparé le contenu de 253 cauchemars et 431 mauvais rêves obtenus prospectivement auprès de 331 participants, offrant ainsi l’une des descriptions de ce type des plus détaillées à ce jour. Nos résultats démontrent que cauchemars et mauvais rêves partagent de nombreuses caractéristiques mais se différencient en plusieurs points : le contenu des cauchemars est davantage caractérisé par des menaces physiques, et celui des mauvais rêves par des menaces psychologiques. De plus, les cauchemars ont plus souvent la peur comme émotion principale, ont une intensité émotionnelle plus forte, se terminent plus souvent de façon négative et sont plus bizarres que les mauvais rêves. Ces différences de contenu entre mauvais rêves et cauchemars suggèrent que ces deux types de rêves sont des manifestations d’un même phénomène variant en termes d’intensité, et que cette intensité est multidimensionnelle. Les résultats de l’étude 3 sont discutés en lien avec différentes théories sur l’étiologie et la fonction des rêves.
Resumo:
Fréquemment, des usagers se retrouvent confrontés à des espaces-transitoires tels que les couloirs de gares. Ces derniers présentent souvent des contraintes temporelles et spatiales qu’il serait possible de transformer en outil optimalisant l’usage. Nous avons voulu vérifier cette hypothèse en observant le degré d’adéquation entre l’offre (les aménagements) et la demande (les usages réels) dans le cas précis de la gare du midi à Bruxelles, Belgique. Nous avons récolté des indices spatiaux, temporels et comportementaux qui nous ont permis d’identifier les conditions de l’usage et, au moyen d’observations directes, de comprendre les usages réellement pratiqués. Afin de documenter le rapport entre usager et espace-temps, nous avons établit une typologie des usages qui met en évidence des figures d’interactions possibles entre ces deux composantes. Nos résultats nous ont permis d’élaborer une conclusion sous la forme d’un modèle nommé « triangle des interrelations » dans le but d’offrir un outil permettant aux professionnels d’anticiper au mieux l’impact des aménagements.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
L’analyse des anomalies génomiques récurrentes est importante pour établir le diagnostic, le pronostic et pour orienter la thérapie des leucémies aiguës pédiatriques. L’objectif de notre étude est d’élaborer une stratégie optimale pour détecter les anomalies chromosomiques dans les leucémies aiguës lymphoblastiques (LAL) et myéloïdes (LAM) des enfants. Pour ce faire, nous avons caractérisé au caryotype, avec des panels d’hybridation in situ en fluorescence (FISH), par RT-PCR et par l’index d’ADN 253 leucémies de novo reçues au CHU Sainte-Justine entre 2005 et 2011 (186 LAL-B, 27 LAL-T et 40 LAM). Nous avons réussi à optimiser la détection des anomalies chromosomiques dans les trois types de leucémies, avec des fréquences de 93,5% dans les LAL-B (174/186), 66,7% dans les LAL-T (18/27) et 90% dans les LAM (36/40). Nos résultats suggèrent d’utiliser plusieurs tests génétiques concomitants afin d’optimiser la détection des anomalies génomiques dans les LAL et les LAM de novo pédiatriques.
Resumo:
Cette thèse traite de la structure électronique de supraconducteurs telle que déterminée par la théorie de la fonctionnelle de la densité. Une brève explication de cette théorie est faite dans l’introduction. Le modèle de Hubbard est présenté pour pallier à des problèmes de cette théorie face à certains matériaux, dont les cuprates. L’union de deux théories donne la DFT+U, une méthode permettant de bien représenter certains systèmes ayant des électrons fortement corrélés. Par la suite, un article traitant du couplage électron- phonon dans le supraconducteur NbC1−xNx est présenté. Les résultats illustrent bien le rôle de la surface de Fermi dans le mécanisme d’appariement électronique menant à la supraconductivité. Grâce à ces résultats, un modèle est développé qui permet d’expliquer comment la température de transition critique est influencée par le changement des fré- quences de vibration du cristal. Ensuite, des résultats de calcul d’oscillations quantiques obtenus par une analyse approfondie de surfaces de Fermi, permettant une comparaison directe avec des données expérimentales, sont présentés dans deux articles. Le premier traite d’un matériau dans la famille des pnictures de fer, le LaFe2P2. L’absence de su- praconductivité dans ce matériau s’explique par la différence entre sa surface de Fermi obtenue et celle du supraconducteur BaFe2As2. Le second article traite du matériau à fermions lourds, le YbCoIn5. Pour ce faire, une nouvelle méthode efficace de calcul des fréquences de Haas-van Alphen est développée. Finalement, un dernier article traitant du cuprate supraconducteur à haute température critique YBa2Cu3O6.5 est présenté. À l’aide de la DFT+U, le rôle de plusieurs ordres magnétiques sur la surface de Fermi est étudié. Ces résultats permettent de mieux comprendre les mesures d’oscillations quan- tiques mesurées dans ce matériau.
Resumo:
Ce projet s’intéresse aux représentations que fait le cinéma des territoires et à la manière dont ces représentations reflètent des grands enjeux socio-spatiaux. L’espace cinématographique devient une clé d’entrée pour l’analyse géographique. Cette analyse porte plus particulièrement sur les représentations que fait le cinéma québécois contemporain des espaces urbains, ruraux et périurbains. Les récits et les représentations spatiales qui les composent se positionnent souvent sur les enjeux socio-spatiaux, produits par l’histoire nationale et les processus socioéconomiques. La proposition d’analyser les représentations cinématographiques en lien avec le contexte socioéconomique vise deux principaux objectifs conceptuels. D’une part, elle s’intéresse à une meilleure compréhension du façonnement des discours sur l’espace, en ce qui a trait à leur émergence et leur négociation. D’autre part, l’analyse vise une définition élargie des espaces ruraux, urbains et périurbains contemporains, en révélant la complexité et simultanément, la simplification dont ils font l’objet, ainsi que les enjeux qui leurs sont associés. Il s’agit d’exploiter la cinématographie québécoise comme un outil d’analyse qui permet de dévoiler la diversité des discours socio-spatiaux. Des approches quantitatives et qualitatives d’interprétation des discours sont jumelées pour réaliser une analyse complète. La méthode retenue est l’analyse critique du discours (ACD), qui tient compte des rapports idéologiques et vise à la dénaturalisation du discours. En quelques mots, l’analyse consiste en l’identification de relations entre les représentations spatiales et le contexte socioéconomique duquel elles ont émergé. Le cadre opérationnel est constitué d’un corpus de 50 films québécois réalisés entre 1980-2008, « lus » à l’aide d’une grille de lecture originale et analysés avec des méthodes d’analyse spatiale et statistique, combinées à une interprétation qualitative. L’analyse quantitative révèle que le monde urbain et le monde rural sont souvent mis en opposition. Les films font de Montréal le principal pôle urbain, tandis que le reste du Québec est associé au milieu rural. Influencées par les flux culturels et économiques globaux, les représentations montréalaises suggèrent une ville fragmentée et continuellement en mouvement. En opposition à ces représentations urbaines, les cinéastes envisagent l’espace rural comme étant exempt de travail, axé sur le chez-soi et doté d’un esprit communautaire. Il est suggéré que la ville, toujours en croissance, restreint les possibilités d’un développement communautaire fort. Face à une ville transformée par la globalisation et en perte d’authenticité, une forme de régionalisme est observée. Ce dernier associe un ensemble de valeurs à une communauté ou à un territoire, afin de se distinguer devant des forces globalisantes qui semblent homogénéiser les valeurs. Pourtant, l’analyse quantitative laisse voir des contradictions au sein de chaque entité géographique ou milieu. L’analyse qualitative permet d’approfondir l’interprétation et révèle sept grands discours sur les espaces urbains et ruraux. Sont notamment identifiés des discours sur la contestation de la modernité urbaine, sur la réappropriation du milieu de vie par les citoyens et sur un espace rural parfois brutal. Cette analyse amène à conclure que la diversité des discours s’explique par l’hétérogénéité des pratiques socio-spatiales, qui remettent en question l’idée d’un discours national homogène. Cela témoigne de l’évolution et la négociation des regards que nous posons sur nos espaces. Au final, cette thèse contribue à une meilleure utilisation du matériel cinématographique comme support d’étude géographique en proposant une approche méthodologique claire et originale. Sur un plan conceptuel, elle rappelle la complexité et le dynamisme des représentations territoriales québécoises, ainsi que les stratégies de négociation des cinéastes face aux enjeux socio-spatiaux vécus dans la province.
Resumo:
Ce travail est axé vers la compréhension détaillée des propriétés de luminescence de composés de certains métaux lourds. La première partie de ce mémoire décrit la caractérisation spectroscopique d'un radical de type nitronyle nitroxyde, 2-(2-pyridinyl)-4,4,5,5-tétraméthyl-4,5-dihydro-1H-imidazolyl-1-oxyl-3-oxyde, abrégé (NIT2-Py), et de ses complexes avec les cations Tb(III), [Tb(hfac)3NIT2-Py], et Y(III), [Y(hfac)3NIT2-Py]. La variation de la température affecte les spectres de luminescence qui montrent de la structure vibronique résolue. Les maxima de ces transitions vibroniques se rapprochent au fur et à mesure que la température augmente. Ces variations des maxima en fonction de la température ne correspondent pas à des variations de fréquences vibrationnelles et sont de l'ordre de 200 cm-1 entre 80 K et 240 K. La variation de la température n'a pas d'influence significative sur la structure moléculaire, comme atteste la variation mineure des maxima des spectres Raman entre 80 K et 300 K. La comparaison des spectres expérimentaux à des spectres calculés montre que ces variations peuvent être reproduites par l'utilisation d'une combinaison de fréquences vibrationnelles. Le paramètre dont la variation est très significative est la résolution du spectre de luminescence, représentée par la largeur à mi-hauteur des transitions vibroniques qui forment le spectre de luminescence. La deuxième partie de ce mémoire décrit les propriétés de luminescence d'une série de complexes d’or(I). Elles sont comparées aux changements structuraux à pression et température variable. Les interactions aurophiles ont une grande influence sur la luminescence. La variation de la température et de la pression est une approche efficace pour varier la luminescence. Les effets observés dans les spectres d'émission de ces complexes dépendent des changements de structure induits par variation de la température et de la pression. Ces petites variations structurales mènent à des changements importants, à titre d'exemple à un déplacement du maximum de la bande de luminescence de 60 cm-1/ kbar vers les faibles énergies pour un des complexes de l'or(I) étudiés au cours de ce projet.
Resumo:
Le virus de l’hépatite C (VHC) infecte ~185 millions d’individus dans le monde. Malgré le développement des nouvelles thérapies dirigées contre le VHC, on compte deux millions de nouvelles infections chaque année, en particulier dans les pays sous-développés et les populations marginalisées. Comme pour la plupart des virus à infection chronique, le développement d’un vaccin prophylactique efficace est limité par le manque de caractérisation des déterminants de la mémoire immunitaire protectrice lors des épisodes de réinfection naturelle chez les êtres humains. Le VHC représente un modèle unique au sein des virus à infection chronique pour étudier l’immunité protectrice. En effet ~30% des patients infectés par le VHC peuvent être guéris suite à un premier épisode d’infection spontanément. Dans cette thèse, nous avons étudié l’immunité protectrice contre le VHC dans une cohorte d’utilisateurs de drogues par injection qui sont à risque d’être infectés ou réinfectés. Notre hypothèse est que la majorité des patients qui ont résolu une première infection par le VHC sont protégés contre le développement d’une infection chronique s’ils sont réexposés. Cette immunité protectrice est associée à la présence des cellules T CD4 et CD8 polyfonctionnelles qui possèdent des fréquences, magnitudes et avidités élevées. La capacité protectrice des cellules T mémoire contre les séquences variables du VHC est dépendante de la diversité et flexibilité du répertoire de leurs récepteurs de cellules T (TCR), qui reconnaissent les séquences variables des épitopes ciblés. Notre premier objectif était de définir et détailler les déterminants de l’immunité protectrice conférée par les cellules T spécifiques du VHC. Nos résultats ont montré que la protection pendant l’épisode de réinfection était associée à une augmentation de la magnitude et du spectre des réponses spécifiques par les cellules T CD4 et CD8 polyfonctionnelles, ainsi que par l’apparition d’une population de cellules T tétramère+ CD8+ effectrices qui expriment faiblement le marqueur CD127 (CD127lo) lors du pic de la réponse. Chez les patients qui ont développé une infection chronique pendant l’épisode de réinfection, nous avons observé une expansion très limitée des cellules T CD4 et CD8. Le séquençage des épitopes ciblés par les cellules T CD8 chez ces patients qui sont non-protégés a montré que les séquences de ces épitopes sont différentes des séquences de référence qui étaient utilisées pour tous les essais immunologiques de cette étude. Le deuxième objectif était d’analyser la dynamique du répertoire des TCRs des cellules T CD8 spécifiques chez les patients protégés versus les patients non-protégés. Nos résultats ont montré que le répertoire des cellules T CD8 spécifiques est plus focalisé que chez les patients protégés. En plus, nous avons observé que les clonotypes qui forment le répertoire chez les patients protégés sont distincts de ceux chez les patients non-protégés. Ces clonotypes chez les patients protégés ont montré de plus grandes avidité et polyfonctionnalité que leurs homologues chez les patients non-protégés. En conclusion, nos résultats suggèrent que la protection contre le développement d’une infection chronique pendant l’épisode de réinfection par le VHC est associée à une augmentation de la magnitude, du spectre et de la fonctionnalité des réponses des cellules T spécifiques, ainsi qu’à un répertoire des TCRs plus focalisé composé des clonotypes distincts qui possèdent de plus grandes avidité et polyfonctionnalité que chez les patients non-protégés. L’homologie des séquences des souches virales entre les différents épisodes de l’infection est un déterminant majeur de l’établissement d’une protection efficace. Ces résultats ont donc des implications très importantes pour le développement d’un vaccin prophylactique contre le VHC et d’autres virus à infection chronique.
Resumo:
Les somnambules présentent des caractéristiques qui suggèrent un dysfonctionnement dans la régulation du sommeil lent profond (SLP). La fonction autonome est étroitement liée à la régulation des stades de sommeil et reflète l’intensité du SLP. Notre objectif est d’étudier la fonction autonome pendant le SLP des somnambules et des sujets témoins avant et après une privation de sommeil. Quatorze somnambules adultes (9 femmes et 5 hommes ; 28,1 ± 5,8 ans) et 14 sujets témoins appariés pour l’âge et le sexe (27,8 ± 6,0 ans) ont été évalués par vidéo - polysomnographie pour une nuit de base et pendant le sommeil de récupération après 25 heures de privation de sommeil. La fréquence cardiaque (FC) et les composantes spectrales de la variabilité de la FC ont été évaluées. Les composantes de basses (LF) et de hautes fréquences (HF) en valeur absolue et en unités normalisées (LFn et HFn) ainsi que le ratio LF/HF ont été analysés à partir de segments de 5 minutes d’électrocardiogramme sélectionnés lors du SLP des deux premiers cycles de sommeil. Au cours du premier cycle de sommeil, les somnambules, mais pas les sujets témoins, ont montré une diminution des LFn et du ratio LF/HF ainsi qu’une augmentation des HFn lors du sommeil de récupération par rapport au sommeil normal. Au cours du deuxième cycle, les somnambules ont montré une FC plus élevée en sommeil de récupération par rapport au sommeil de base et l’inverse a été trouvé chez les sujets témoins. Les somnambules ont montré une augmentation de l’activité parasympathique ainsi qu’une diminution de l’activité sympathique au cours du premier cycle du sommeil de récupération par rapport à la valeur initiale. Puisque cette fenêtre de temps est fortement associée à la survenue d'épisodes de somnambulisme chez les sujets prédisposés, cette hyperactivité parasympathique pourrait être impliquée dans la physiopathologie de somnambulisme.
Resumo:
Le traitement de l’épilepsie chez le jeune enfant représente un enjeu majeur pour le développement de ce dernier. Chez la grande majorité des enfants atteints de spasmes infantiles et chez plusieurs atteints de crises partielles complexes réfractaires, le vigabatrin (VGB) représente un traitement incontournable. Cette médication, ayant démontré un haut taux d’efficacité chez cette population, semble toutefois mener à une atteinte du champ visuel périphérique souvent asymptomatique. L’évaluation clinique des champs visuels avec la périmétrie chez les patients de moins de neuf ans d’âge développemental est toutefois très difficile, voire impossible. Les études électrophysiologiques classiques menées auprès de la population épileptique pédiatrique suggèrent l’atteinte des structures liées aux cônes de la rétine. Les protocoles standards ne sont toutefois pas spécifiques aux champs visuels et les déficits soulignés ne concordent pas avec l’atteinte périphérique observée. Cette thèse vise donc à élaborer une tâche adaptée à l’évaluation des champs visuels chez les enfants en utilisant un protocole objectif, rapide et spécifique aux champs visuels à partir des potentiels évoqués visuels (PEVs) et à évaluer, à l’aide de cette méthode, les effets neurotoxiques à long terme du VGB chez des enfants épileptiques exposés en bas âge. La validation de la méthode est présentée dans le premier article. La stimulation est constituée de deux cercles concentriques faits de damiers à renversement de phase alternant à différentes fréquences temporelles. La passation de la tâche chez l’adulte permet de constater qu’une seule électrode corticale (Oz) est nécessaire à l’enregistrement simultané des réponses du champ visuel central et périphérique et qu’il est possible de recueillir les réponses électrophysiologiques très rapidement grâces l’utilisation de l’état-stationnaire (steady-state). La comparaison des données d’enfants et d’adultes normaux permet de constater que les réponses recueillies au sein des deux régions visuelles ne dépendent ni de l’âge ni du sexe. Les réponses centrales sont aussi corrélées à l’acuité visuelle. De plus, la validité de cette méthode est corroborée auprès d’adolescents ayant reçu un diagnostic clinique d’un déficit visuel central ou périphérique. En somme, la méthode validée permet d’évaluer adéquatement les champs visuels corticaux central et périphérique simultanément et rapidement, tant chez les adultes que chez les enfants. Le second article de cette thèse porte sur l’évaluation des champs visuels, grâce à la méthode préalablement validée, d’enfants épileptiques exposés au VGB en jeune âge en comparaison avec des enfants épileptiques exposés à d’autres antiépileptiques et à des enfants neurologiquement sains. La méthode a été bonifiée grâce à la variation du contraste et à l’enregistrement simultané de la réponse rétinienne. On trouve que la réponse corticale centrale est diminuée à haut et à moyen contrastes chez les enfants exposés au VGB et à haut contraste chez les enfants exposés à d’autres antiépileptiques. Le gain de contraste est altéré au sein des deux groupes d’enfants épileptiques. Par contre, l’absence de différences entre les deux groupes neurologiquement atteints ne permet pas de faire la distinction entre l’effet de la médication et celui de la maladie. De plus, la réponse rétinienne périphérique est atteinte chez les enfants épileptiques exposés au Sabril® en comparaison avec les enfants neurologiquement sains. La réponse rétinienne périphérique semble liée à la durée d’exposition à la médication. Ces résultats corroborent ceux rapportés dans la littérature. En somme, les résultats de cette thèse offrent une méthode complémentaire, rapide, fiable, objective à celles connues pour l’évaluation des champs visuels chez les enfants. Ils apportent aussi un éclairage nouveau sur les impacts à long terme possibles chez les enfants exposés au VGB dans la petite enfance.