973 resultados para Circuits de microones
Resumo:
Le récepteur de l'acide rétinoïque RAR est une protéine de la superfamille des récepteurs nucléaires liant le ligand acide rétinoïque (AR). En présence de son ligand, RAR induit la transcription de ses gènes cibles alors qu'en son absence la transcription est inhibée. Le mécanisme de régulation de RAR est altéré dans les lignées cellulaires humaines de carcinome mammaire dû à une baisse de capacité de synthèse de l'AR. Aussi, l'expression des microARN (miR) est perturbée dans le cancer du sein et un grand nombre de gènes ont été identifiés, après une analyse in-silico, comme des cibles prédites des miRs. Ces derniers peuvent être régulés pas des facteurs de transcription et ils sont capables d'inhiber la prolifération cellulaire et d'induire l'apoptose via la régulation de leurs cibles. Ainsi, les miRs peuvent jouer un rôle dans le mécanisme de régulation de RAR et être impliqués dans des boucles de régulation avec ce récepteur. Dans le cadre de ce travail, nous décrivons une approche développée pour prédire et caractériser des circuits de régulation au niveau transcriptionnel et post-transcriptionnel dans le cancer du sein. Nous nous sommes intéressés aux boucles de régulation de type feed-forward où RAR régule un miR et en commun ils régulent un ensemble de gènes codants pour des protéines dans les cellules tumorales mammaires MCF7 et SKBR3. Ces circuits ont été construits en combinant des données de ChIP-chip de RAR et des données de micro-puces d'ADN tout en utilisant des outils in-silico de prédiction des gènes cibles de miRs. Afin de proposer le modèle approprié de régulation, une analyse in-silico des éléments de réponse de l'AR (RARE) dans les promoteurs des miRs est réalisée. Cette étape permet de prédire si la régulation par RAR est directe ou indirecte. Les boucles ainsi prédites sont filtrées en se basant sur des données d'expression de miR existantes dans des bases de données et dans différentes lignées cellulaires, en vue d'éliminer les faux positifs. De plus, seuls les circuits pertinents sur le plan biologique et trouvés enrichis dans Gene Ontology sont retenus. Nous proposons également d'inférer l'activité des miRs afin d'orienter leur régulation par RAR. L'approche a réussi à identifier des boucles validées expérimentalement. Plusieurs circuits de régulation prédits semblent être impliqués dans divers aspects du développement de l'organisme, de la prolifération et de la différenciation cellulaire. De plus, nous avons pu valider que let-7a peut être induit par l'AR dans les MCF7.
Resumo:
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.
Resumo:
Les problèmes de toxicomanie sont très communs chez les schizophrènes. L’administration chronique d’antipsychotiques pourrait être impliquée dans cette cooccurrence en induisant une hypersensibilisation du système dopaminergique. Précédemment, nous avons démontré chez le rat qu’un traitement continu (via une mini-pompe osmotique sous-cutanée), et non pas intermittent (via des injections journalières sous-cutanées), avec l’halopéridol a augmenté la capacité de l’amphétamine à potentialiser un comportement de recherche de récompense. Dans cette étude, nous avons étudié les effets d’un antipsychotique atypique soit l’olanzapine comparé à l’halopéridol. Un traitement continu avec l’halopéridol, et non pas l’olanzapine, a augmenté la capacité de l’amphétamine de potentialiser la poursuite d’une récompense conditionnée (lumière/son préalablement associés à l’eau). De plus, un traitement continu avec l’halopéridol a augmenté l’induction par l’amphétamine de l’activité locomotrice et l’expression d’ARNm pour le c-fos (marqueur fonctionnel d’activité cellulaire) dans le caudé-putamen. Donc, un traitement continu avec un antipsychotique typique, et non pas atypique, a augmenté les caractéristiques motivationnelles attribuées à un stimulus neutre. Ceci est potentiellement lié à au développement d’un état de sensibilisation comportementale aux effets de l’amphétamine et à une augmentation de la capacité de l’amphétamine de susciter la modulation de l’activité du caudé-putamen. Ainsi, un antipsychotique typique tel que l’halopéridol semble modifier les circuits de la récompense de façon à contribuer à des comportements caractérisés par une recherche et une consommation de drogues d’abus alors qu’un antipsychotique atypique tel que l’olanzapine aurait moins tendance à le faire. Nous suggérons que les antipsychotiques atypiques pourraient être une meilleure option chez les patients schizophrènes à risque d’avoir un trouble de consommation de drogues d’abus ou de toxicomanie.
Resumo:
L’intégrité de notre système sensorimoteur est essentielle aux interactions adéquates avec notre environnement. Dans la maladie de Parkinson (MP), l’efficacité des interactions quotidiennes entre le corps et l’environnement est fréquemment réduite et diminue la qualité de vie. La MP est une maladie neurodégénérative résultant prioritairement d’une perte neuronale dopaminergique dans les ganglions de la base (GB). Cette dégénérescence altère le fonctionnement normal de la circuiterie associant les GB au cortex cérébral. L’administration de médications dopaminergiques permet d’améliorer les principaux symptômes cliniques moteurs de la MP. Cette thèse porte sur les rôles des GB dans les processus de traitement et d’intégration des informations sensorielles visuelle et proprioceptive et dans les mécanismes d’adaptation visuomotrice. Elle s’intéresse également à l’influence de la médication dopaminergique sur ces fonctions sensorimotrices. Nous avons réalisé trois études comportementales, utilisant l’atteinte manuelle tridimensionnelle comme modèle expérimental. Dans chacune de ces études, nous avons comparé la performance de personnes âgées en santé à celle de personnes souffrant de la MP avec et sans leur médication antiparkinsonienne quotidienne. Ces trois études ont été réalisées à l’aide d’un système d’analyse de mouvement et une station de réalité virtuelle. Dans la première étude, nous avons évalué si les GB sont prioritairement impliqués dans l’intégration sensorimotrice ou le traitement des informations proprioceptives. Pour se faire, nous avons testé la capacité des patients MP à effectuer des atteintes manuelles tridimensionnelles précises dans quatre conditions variant la nature des informations sensorielles (visuelles et/ou proprioceptives) définissant la position de la main et de la cible. Les patients MP ont effectué, en moyenne, de plus grandes erreurs spatiales que les personnes en santé uniquement lorsque les informations proprioceptives étaient la seule source d’information sensorielle disponible. De plus, ces imprécisions spatiales étaient significativement plus grandes que celles des personnes en santé, seulement lorsque les patients étaient testés dans la condition médicamentée. La deuxième étude présentée dans cette thèse a permis de démontrer que les imprécisions spatiales des patients MP dans les conditions proprioceptives étaient le résultat de déficits dans l’utilisation en temps réel des informations proprioceptives pour guider les mouvements. Dans la troisième étude, nous avons évalué si les GB sont prioritairement impliqués dans les mécanismes d’adaptation visuomotrice explicite ou implicite. Pour se faire, nous avons testé les capacités adaptatives des patients MP dans deux tâches variant le décours temporel de l’application d’une perturbation visuomotrice tridimensionnelle. Dans la tâche explicite, la perturbation était introduite soudainement, produisant de grandes erreurs détectées consciemment. Dans la condition implicite, la perturbation était introduite graduellement ce qui engendrait de petites erreurs non détectables. Les résultats montrent que les patients MP dans les conditions médicamentée et non médicamentée présentent des déficits adaptatifs uniquement dans la tâche explicite. Dans l’ensemble, les résultats expérimentaux présentés dans cette thèse montrent que la médication dopaminergique n’améliore pas le traitement des afférences proprioceptives et l’adaptation visuomotrice des personnes souffrant de la MP. Ces observations suggèrent que les dysfonctions dans les circuits dopaminergiques dans les GB ne sont pas les seules responsables des déficits observés dans ces fonctions sensorimotrices.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
La schizophrénie est une maladie complexe et a une prévalence approximative de 1% dans la population générale. Au sein des paradigmes neurochimiques, la théorie étiologique de la dopamine est celle qui prévaut alors que sont de plus en plus impliqués d’autres circuits de neurotransmission comme celui du glutamate. En clinique, les patients atteints de schizophrénie ont une grande propension à consommer des substances, particulièrement du cannabis. Nous avons cherché à étayer l’hypothèse d’un désordre du système cannabinoïde endogène, un important neuromodulateur. Ce mémoire propose d’abord dans un premier article une revue exhaustive de la littérature explorant le système endocannabinoïde et ses implications dans la schizophrénie. Puis, nous exposons dans un second article les résultats d’une recherche clinique sur les endocannabinoïdes plasmatiques dans trois groupes de sujets avec schizophrénie et/ou toxicomanie, pendant 12 semaines. Nous avons observé un effet miroir de deux ligands endocannabinoïdes, l’anandamide et l’oleylethanolamide, qui étaient élevés chez les patients avec double diagnostic et abaissés chez les toxicomanes, au début de l’étude. Au terme de l’étude, l’élévation des endocannabinoïdes s’est maintenue et nous avons supposé un marqueur de vulnérabilité psychotique dans un contexte de consommation. Finalement, nous avons analysé les résultats en les intégrant aux connaissances moléculaires et pharmacologiques ainsi qu’aux théories neurochimiques et inflammatoires déjà développées dans la schizophrénie. Nous avons aussi tenu compte des principales comorbidités observées en clinique: la toxicomanie et les troubles métaboliques. Cela nous a permis de proposer un modèle cannabinoïde de la schizophrénie et conséquemment des perspectives de recherche et de traitement.
Resumo:
La dopamine (DA) est un neurotransmetteur impliqué dans la modulation de fonctions essentielles du cerveau telles que le contrôle des mouvements volontaires, le système de récompense et certains aspects de la cognition. Depuis sa découverte, la DA a attiré énormément d'attention scientifique en partie à cause des pathologies majeures associées aux dysfonctions du système DAergique, comme la maladie de Parkinson, la schizophrénie et la toxicomanie. On retrouve la majorité des neurones qui synthétisent la DA au niveau du mésencéphale ventral, dans les noyaux de la substance noire compacte (SNc) et de l'aire tegmentaire ventrale (ATV). Ces neurones projettent leurs axones dans un très dense réseau de fibres qui s'organisent en trois voies DAergiques classiques: la voie nigrostriée, la voie mésolimbique et la voie mésocorticale. La transmission DAergique s'effectue par l'activation de récepteurs de la DA qui font partie de la grande famille des récepteurs couplés aux protéines G (RCPGs). Les récepteurs de la DA sont abondamment exprimés aussi bien par les neurones DAergiques que par les neurones des régions cibles, ce qui implique que la compréhension de la signalisation et des fonctions particulières des récepteurs de la DA pré- et postsynaptiques représente un enjeu crucial dans l'étude du système DAergique. Cette thèse de doctorat se sépare donc en deux volets distincts: le premier s'intéresse à la régulation du récepteur D2 présynaptique par la neurotensine (NT), un neuropeptide intimement lié à la modulation du système DAergique; le deuxième s'intéresse au côté postsynaptique du système DAergique, plus particulièrement à la ségrégation de l'expression des récepteurs de la DA dans le striatum et aux fonctions de ces récepteurs dans l'établissement des circuits neuronaux excitateurs prenant place dans cette région. Dans la première partie de cette thèse, nous démontrons que l'activation du récepteur à haute affinité de la NT, le NTR1, provoque une internalisation hétérologue du récepteur D2, avec une amplitude et une cinétique différente selon l'isoforme D2 observé. Cette internalisation hétérologue dépend de la protéine kinase C (PKC), et nous montrons que la surexpression d'un récepteur D2 muté sur des sites de phosphorylation par la PKC ii ainsi que l'inhibition de l'expression de β-arrestine1 par ARNs interférents dans des neurones DAergiques bloquent complètement l'interaction fonctionnelle entre le NTR1 et le D2. Dans la deuxième partie de cette thèse, nous démontrons d'abord que la ségrégation de l'expression des récepteurs D1 et D2 dans le striatum est déjà bien établie dès le 18e jour embryonnaire, bien qu'elle progresse encore significativement aux jours 0 et 14 postnataux. Nos résultats témoignent aussi d'un maintien complet de cette ségrégation lorsque les neurones striataux sont mis en culture aussi bien en présence ou en absence de neurones corticaux et/ou mésencéphaliques. Ensuite, nous montrons que la présence de neurones mésencéphaliques stimule la formation d’épines et de synapses excitatrices sur les neurones striataux épineux exprimant le récepteur D2 (MSN-D2). Le co-phénotype glutamatergique des neurones dopaminergiques semble nécessaire à une grande partie de cet effet. Par ailleurs, le nombre total de terminaisons excitatrices formées sur les MSN-D2 par les neurones corticaux et mésencéphaliques apparaît être régit par un équilibre dynamique. Finalement, nous démontrons que le blocage de la signalisation des récepteurs D1 et D2 de la DA n'est pas nécessaire pour la formation des synapses excitatrices des MSN-D2, alors que l'antagonisme des récepteurs glutamatergiques ionotropes diminue la densité d'épines dendritiques et contrôle de façon opposée le nombre de terminaisons excitatrices corticales et mésencéphaliques. Globalement, ce travail représente une contribution significative pour une meilleure compréhension du fonctionnement normal du système DAergique. Ces découvertes sont susceptibles d’être utiles pour mieux comprendre les dysfonctions de ce système dans le cadre de pathologies du cerveau comme la maladie de Parkinson.
Resumo:
Les voies d'administration qui provoquent une entrée rapide de la drogue au cerveau sont connues pour faciliter le développement de la toxicomanie. Les études animales modélisant cet effet ont montré que des rats, qui ont un accès prolongé à des injections intraveineuses rapides de cocaïne (injectée en 5 ou 90 secondes), s'autoadministrent plus de drogue, ont un entraînement opérant plus élevé et sont subséquemment plus motivés à obtenir la cocaïne. La question est maintenant de savoir comment l'autoadministration de cocaïne injectée rapidement promeut une augmentation de la motivation à obtenir de la cocaïne. Cette motivation exagérée pourrait être une conséquence de l'exposition prolongée à de larges quantités de cocaïne et/ou de l'effet persistant d'un entraînement opérant extensif. De plus, on sait qu'augmenter la vitesse d'administration de la cocaïne modifie les circuits de la récompense et de la motivation. Ainsi, ceci pourrait promouvoir la motivation excessive pour la drogue. Nous avons cherché à déterminer l'influence de l'exposition à la drogue et de l'entraînement opérant sur le développement d'une motivation exacerbée pour la drogue. Les rats se sont autoadministrés de la cocaïne injectée en 5 ou 90 secondes (s) durant un accès limité (1h/session) ou prolongé (6h/session) avec un ratio fixe. La motivation pour la cocaïne a par la suite été évaluée à l'aide d'un ratio progressif (PR). Les rats ayant reçu la drogue injectée en 5 s durant l'accès prolongé (par rapport au groupe 90 secondes) ont pris plus de drogue et eu un entraînement opérant plus extensif alors qu'il n'y avait pas de différences dans la consommation et le niveau d'entraînement opérant entre les groupes ayant subit un accès limité uniquement. Les rats ayant consommé la drogue injectée en 5s, indépendamment du temps d'accès, ont toujours exprimé une motivation plus grande pour la drogue en PR. La quantité de cocaïne consommée ou l'ampleur de l'entraînement opérant ont été positivement corrélés avec la consommation de cocaïne en PR dans certains groupes. Par contre, le groupe qui a eu un accès prolongé aux injections rapides a montré une augmentation dans sa motivation à s'autoadministrer de la drogue qui n'était prédite ni par la quantité de cocaïne consommée ni par l'étendue de l'entraînement opérant. Ces résultats suggèrent que des injections rapide de cocaïne pourraient faciliter la toxicomanie en favorisant entre autre des modifications neurobiologiques qui mènent à une motivation pathologique pour la drogue.
Resumo:
En Grande-Bretagne et en Amérique du Nord, la police est une institution publique qui suscite de nombreux travaux académiques. En France, elle est perçue comme un objet sale jusqu’aux travaux de Montjardet. En Suisse, la police est le reflet de la structure fédérale du pays. A travers un cadre réglementaire et légal, chaque canton a organisé sa police. Ainsi, le canton de Vaud s’est doté d’une police cantonale et de polices municipales dont le fonctionnement se fonde sur la proximité. Seules la police cantonale et celle de Lausanne disposent d’une compétence maximale. Bien que la police de proximité soit bien documentée au niveau légal, il n’existe pas de recherche compréhensive sur le fonctionnement de cet ensemble de principes policiers. Ce manque de connaissance pratique est problématique car le canton a entrepris une réforme policière qui est entrée en vigueur au 1er Janvier 2012. Dans ses pratiques liées à l’information, la police de proximité semble s’inspirer de deux modèles incompatibles que sont la police de communauté et l’intelligence led policing. C’est pourquoi, dans cette recherche, nous souhaitons comprendre comment les modèles théoriques trouvent à s’appliquer dans la pratique de la police de proximité. Nous avons opté pour une démarche qualitative semi-dirigée en réalisant 23 entretiens avec des policiers vaudois. L’analyse thématique a été réalisée à l’aide du logiciel Atlas Ti. Trois résultats ont retenu notre attention. Tout d’abord, notre analyse a permis de clarifier la notion de proximité par rapport à celle de communauté tout en tenant compte des particularismes locaux de redevabilité. Ensuite, nous avons identifié les divers circuits de l’information et mis en évidence les divergences dans le vocabulaire lié à l’analyse criminelle. Enfin, il apparaît que la police vaudoise se positionne comme une interface qui coordonne les partenaires susceptibles de résoudre les problèmes de la population.
Resumo:
La mémoire n’est pas un processus unitaire et est souvent divisée en deux catégories majeures: la mémoire déclarative (pour les faits) et procédurale (pour les habitudes et habiletés motrices). Pour perdurer, une trace mnésique doit passer par la consolidation, un processus par lequel elle devient plus robuste et moins susceptible à l’interférence. Le sommeil est connu comme jouant un rôle clé pour permettre le processus de consolidation, particulièrement pour la mémoire déclarative. Depuis plusieurs années cependant, son rôle est aussi reconnu pour la mémoire procédurale. Il est par contre intéressant de noter que ce ne sont pas tous les types de mémoire procédurale qui requiert le sommeil afin d’être consolidée. Entre autres, le sommeil semble nécessaire pour consolider un apprentissage de séquences motrices (s’apparentant à l’apprentissage du piano), mais pas un apprentissage d’adaptation visuomotrice (tel qu’apprendre à rouler à bicyclette). Parallèlement, l’apprentissage à long terme de ces deux types d’habiletés semble également sous-tendu par des circuits neuronaux distincts; c’est-à-dire un réseau cortico-striatal et cortico-cérébelleux respectivement. Toutefois, l’implication de ces réseaux dans le processus de consolidation comme tel demeure incertain. Le but de cette thèse est donc de mieux comprendre le rôle du sommeil, en contrôlant pour le simple passage du temps, dans la consolidation de ces deux types d’apprentissage, à l’aide de l’imagerie par résonnance magnétique fonctionnelle et d’analyses de connectivité cérébrale. Nos résultats comportementaux supportent l’idée que seul l’apprentissage séquentiel requiert le sommeil pour déclencher le processus de consolidation. Nous suggérons de plus que le putamen est fortement associé à ce processus. En revanche, les performances d’un apprentissage visuomoteur s’améliorent indépendamment du sommeil et sont de plus corrélées à une plus grande activation du cervelet. Finalement, en explorant l’effet du sommeil sur la connectivité cérébrale, nos résultats démontrent qu’en fait, un système cortico-striatal semble être plus intégré suite à la consolidation. C’est-à-dire que l’interaction au sein des régions du système est plus forte lorsque la consolidation a eu lieu, après une nuit de sommeil. En opposition, le simple passage du temps semble nuire à l’intégration de ce réseau cortico-striatal. En somme, nous avons pu élargir les connaissances quant au rôle du sommeil pour la mémoire procédurale, notamment en démontrant que ce ne sont pas tous les types d’apprentissages qui requièrent le sommeil pour amorcer le processus de consolidation. D’ailleurs, nous avons également démontré que cette dissociation de l’effet du sommeil est également reflétée par l’implication de deux réseaux cérébraux distincts. À savoir, un réseau cortico-striatal et un réseau cortico-cérébelleux pour la consolidation respective de l’apprentissage de séquence et d’adaptation visuomotrice. Enfin, nous suggérons que la consolidation durant le sommeil permet de protéger et favoriser une meilleure cohésion au sein du réseau cortico-striatal associé à notre tâche; un phénomène qui, s’il est retrouvé avec d’autres types d’apprentissage, pourrait être considéré comme un nouveau marqueur de la consolidation.
Resumo:
L’encéphalopathie hypoxique-‐ischémique cause des milliers de victimes à travers le monde chaque année. Les enfants survivants à un épisode hypoxique-‐ischémique sont à risque de développer des problèmes neurologiques incapacitants comme une paralysie cérébrale, un retard mental, une épilepsie ou des troubles d’ordre comportemental. Les modèles animaux ont amélioré nos connaissances sur les mécanismes sous-‐jacents aux dommages cérébraux, mais elles sont encore trop incomplètes pour être capables de prévenir les problèmes neurologiques. Ce projet vise à comprendre l’impact d’un épisode asphyxique périnatale associé à des convulsions ainsi que l’activation de l’adenosine monophosphate-‐activated protein kinase (AMPK) sur les circuits GABAergiques inhibiteurs en développement chez la souris. Dans le but d’investiguer le sort des neurones inhibiteurs, appelés interneurones, suite à un épisode asphyxique périnatal associé à des convulsions avec des animaux transgéniques, nous avons pris avantage d’un nouveau modèle d’hypoxie permettant d’induire des convulsions chez la souris. Deux populations d’interneurones représentant ensemble environ 60% de tous les interneurones corticaux ont été étudiées, soit les cellules exprimant la parvalbumine (PV) et les cellules exprimant la somatostatine (SOM). L’étude stéréologique n’a montré aucune mort neuronale de ces deux populations d’interneurones dans l’hippocampe chez les souris hypoxique d’âge adulte. Par contre, le cortex des souris hypoxiques présentait des zones complètement ou fortement dépourvues de cellules PV alors que les cellules SOM n’étaient pas affectées. L’utilisation d’une lignée de souris transgénique exprimant une protéine verte fluorescente (GFP) dans les cellules PV nous a permis de comprendre que les trous PV sont le reflet de deux choses : 1) une diminution des cellules PV et 2) une immaturité des cellules PV restantes. Puisque les cellules PV sont spécifiquement affectées dans la première partie de notre étude, nous avons voulu étudier les mécanismes moléculaires sous-‐jacents à cette vulnérabilité. L’AMPK est un senseur d’énergie qui orchestre le rétablissement des i niveaux d’énergie cellulaire dans le cas d’une déplétion énergétique en modulant des voies de signalisation impliquant la synthèse de protéines et l’excitabilité membranaire. Il est possible que l’activation d’AMPK suite à un épisode asphyxique périnatal associé à des convulsions soit néfaste à long-‐terme pour le circuit GABAergique en développement et modifie l’établissement de l’innervation périsomatique d’une cellule PV sur les cellules pyramidales. Nous avons étudié cette hypothèse dans un modèle de culture organotypique en surexprimant la forme wild-‐type (WT) de la sous-‐unité α2 d’AMPK, ainsi qu’une forme mutée dominante négative (DN), dans des cellules PV individuelles. Nous avons montré que pendant la phase de formation synaptique (jours post-‐natals équivalents EP 10-‐18), la surexpression de la forme WT désorganise la stabilisation des synapses. De plus, l’abolition de l’activité d’AMPK semble augmenter le nombre de synapses périsomatiques faits par la cellule PV sur les cellules pyramidales pendant la phase de formation et semble avoir l’effet inverse pendant la phase de maturation (EP 16-‐24). La neurotransmission GABAergique joue plusieurs rôles dans le cerveau, depuis la naissance jusqu’à l’âge adulte des interneurones, et une dysfonction des interneurones a été associée à plusieurs troubles neurologiques, comme la schizophrénie, l’autisme et l’épilepsie. La maturation des circuits GABAergiques se fait majoritairement pendant la période post-‐natale et est hautement dépendante de l’activité neuronale et de l’expérience sensorielle. Nos résultats révèlent que le lourd fardeau en demande énergétique d’un épisode asphyxique périnatal peut causer une mort neuronale sélective des cellules PV et compromettre l’intégrité de leur maturation. Un des mécanismes sous-‐ jacents possible à cette immaturité des cellules PV suite à l’épisode hypoxique est l’activation d’AMPK, en désorganisant leur profil d’innervation sur les cellules pyramidales. Nous pensons que ces changements dans le réseau GABAergique pourrait contribuer aux problèmes neurologiques associés à une insulte hypoxique.
Resumo:
Cette thèse fait la lumière sur les différentes manières dont, historiquement, a été perçu, conçu et vécu le territoire, à travers l’expérience et l’essor de la mobilité. Cette étude montre le rôle crucial de l’automobilité dans le développement touristique du Québec et de l’Ontario et les manières dont elle a façonné certains de leurs territoires. La thèse reconstitue ces processus en examinant les différentes mesures adoptées pour mettre en tourisme ces territoires et les transformer sur le plan matériel comme symbolique, entre 1920 et 1967. Elle répond à la question suivante : en quoi et comment la mobilité associée à l’automobile transforme et crée les territoires touristiques? La période étudiée s’ouvre au moment où débute l’intervention gouvernementale en matière de tourisme et s’amorce l’aménagement d’infrastructures favorisant une plus grande automobilité. Elle se clôt sur les célébrations entourant le Centenaire du Canada et la tenue de l’Expo 1967 à Montréal, qui donnent lieu à un aménagement intense du territoire afin d’accommoder un nombre sans précédent de touristes motorisés en provenance des autres provinces canadiennes et des États-Unis. La thèse reconstitue d’abord le processus de mise en tourisme des territoires par la conception, la construction et la promotion du système routier, l’élaboration d’itinéraires et de circuits touristiques et le développement d’outils accompagnant le touriste dans sa mobilité. L’embellissement en tant qu’élément structurant de la transformation des territoires est ensuite examiné. Enfin, la publicité, les récits et les pratiques touristiques sont étudiés de manière détaillée afin d’identifier les mécanismes par lesquels se construisent les représentations des territoires par l’apport de différents acteurs. Cette thèse révèle ainsi les liens étroits et complexes qui se développent à partir des années 1920 entre l’automobilité, le tourisme et la modification des territoires. Elle contribue à mettre au jour l’historicité de certains réflexes et orientations qui ont encore cours dans l’industrie touristique canadienne soit ceux d’aborder son développement en fonction de l’accessibilité du territoire à l’automobile et du regard à travers le pare-brise. En montrant le rôle du système automobile dans l’expérience touristique, l’étude ajoute un élément nouveau à la compréhension de la démocratisation des loisirs. Souvent expliquée par la hausse du niveau de vie, du temps libre et de la généralisation des congés payés, cette démocratisation se trouve aussi favorisée par l’accessibilité à l’automobile qui, à son tour, rend accessible des territoires de plus en plus éloignés à des fins de loisirs. La dimension récréative de l’automobile permet d’expliquer son adoption rapide par les Nord-Américains et les Canadiens ainsi que la dépendance qu’ils ont progressivement développée à son égard.
Resumo:
La lithographie et la loi de Moore ont permis des avancées extraordinaires dans la fabrication des circuits intégrés. De nos jours, plusieurs systèmes très complexes peuvent être embarqués sur la même puce électronique. Les contraintes de développement de ces systèmes sont tellement grandes qu’une bonne planification dès le début de leur cycle de développement est incontournable. Ainsi, la planification de la gestion énergétique au début du cycle de développement est devenue une phase importante dans la conception de ces systèmes. Pendant plusieurs années, l’idée était de réduire la consommation énergétique en ajoutant un mécanisme physique une fois le circuit créé, comme par exemple un dissipateur de chaleur. La stratégie actuelle est d’intégrer les contraintes énergétiques dès les premières phases de la conception des circuits. Il est donc essentiel de bien connaître la dissipation d’énergie avant l’intégration des composantes dans une architecture d’un système multiprocesseurs de façon à ce que chaque composante puisse fonctionner efficacement dans les limites de ses contraintes thermiques. Lorsqu’une composante fonctionne, elle consomme de l’énergie électrique qui est transformée en dégagement de chaleur. Le but de ce mémoire est de trouver une affectation efficace des composantes dans une architecture de multiprocesseurs en trois dimensions en tenant compte des limites des facteurs thermiques de ce système.
Resumo:
Il y a des problemes qui semblent impossible a resoudre sans l'utilisation d'un tiers parti honnete. Comment est-ce que deux millionnaires peuvent savoir qui est le plus riche sans dire a l'autre la valeur de ses biens ? Que peut-on faire pour prevenir les collisions de satellites quand les trajectoires sont secretes ? Comment est-ce que les chercheurs peuvent apprendre les liens entre des medicaments et des maladies sans compromettre les droits prives du patient ? Comment est-ce qu'une organisation peut ecmpecher le gouvernement d'abuser de l'information dont il dispose en sachant que l'organisation doit n'avoir aucun acces a cette information ? Le Calcul multiparti, une branche de la cryptographie, etudie comment creer des protocoles pour realiser de telles taches sans l'utilisation d'un tiers parti honnete. Les protocoles doivent etre prives, corrects, efficaces et robustes. Un protocole est prive si un adversaire n'apprend rien de plus que ce que lui donnerait un tiers parti honnete. Un protocole est correct si un joueur honnete recoit ce que lui donnerait un tiers parti honnete. Un protocole devrait bien sur etre efficace. Etre robuste correspond au fait qu'un protocole marche meme si un petit ensemble des joueurs triche. On demontre que sous l'hypothese d'un canal de diusion simultane on peut echanger la robustesse pour la validite et le fait d'etre prive contre certains ensembles d'adversaires. Le calcul multiparti a quatre outils de base : le transfert inconscient, la mise en gage, le partage de secret et le brouillage de circuit. Les protocoles du calcul multiparti peuvent etre construits avec uniquements ces outils. On peut aussi construire les protocoles a partir d'hypoth eses calculatoires. Les protocoles construits a partir de ces outils sont souples et peuvent resister aux changements technologiques et a des ameliorations algorithmiques. Nous nous demandons si l'efficacite necessite des hypotheses de calcul. Nous demontrons que ce n'est pas le cas en construisant des protocoles efficaces a partir de ces outils de base. Cette these est constitue de quatre articles rediges en collaboration avec d'autres chercheurs. Ceci constitue la partie mature de ma recherche et sont mes contributions principales au cours de cette periode de temps. Dans le premier ouvrage presente dans cette these, nous etudions la capacite de mise en gage des canaux bruites. Nous demontrons tout d'abord une limite inferieure stricte qui implique que contrairement au transfert inconscient, il n'existe aucun protocole de taux constant pour les mises en gage de bit. Nous demontrons ensuite que, en limitant la facon dont les engagements peuvent etre ouverts, nous pouvons faire mieux et meme un taux constant dans certains cas. Ceci est fait en exploitant la notion de cover-free families . Dans le second article, nous demontrons que pour certains problemes, il existe un echange entre robustesse, la validite et le prive. Il s'effectue en utilisant le partage de secret veriable, une preuve a divulgation nulle, le concept de fantomes et une technique que nous appelons les balles et les bacs. Dans notre troisieme contribution, nous demontrons qu'un grand nombre de protocoles dans la litterature basee sur des hypotheses de calcul peuvent etre instancies a partir d'une primitive appelee Transfert Inconscient Veriable, via le concept de Transfert Inconscient Generalise. Le protocole utilise le partage de secret comme outils de base. Dans la derniere publication, nous counstruisons un protocole efficace avec un nombre constant de rondes pour le calcul a deux parties. L'efficacite du protocole derive du fait qu'on remplace le coeur d'un protocole standard par une primitive qui fonctionne plus ou moins bien mais qui est tres peu couteux. On protege le protocole contre les defauts en utilisant le concept de privacy amplication .
Resumo:
L’hypothèse générale de ce projet soutient que le système moteur doit performer des transformations sensorimotrices afin de convertir les entrées sensorielles, concernant la position de la cible à atteindre, en commande motrice, afin de produire un mouvement du bras et de la main vers la cible à atteindre. Ce type de conversion doit être fait autant au niveau de la planification du mouvement que pour une éventuelle correction d’erreur de planification ou d’un changement inopiné de la position de la cible. La question de recherche du présent mémoire porte sur le ou les mécanismes, circuits neuronaux, impliqués dans ce type de transformation. Y a-t-il un seul circuit neuronal qui produit l’ensemble des transformations visuomotrices entre les entrées sensorielles et les sorties motrices, avant l’initiation du mouvement et la correction en temps réel du mouvement, lorsqu’une erreur ou un changement inattendu survient suite à l’initiation, ou sont-ils minimalement partiellement indépendants sur le plan fonctionnel? L’hypothèse de travail suppose qu’il n’y ait qu’un seul circuit responsable des transformations sensorimotrices, alors l’analyse des résultats obtenus par les participants devrait démontrer des changements identiques dans la performance pendant la phase de planification du mouvement d’atteinte et la phase de correction en temps réel après l’adaptation à des dissociations sensorimotrices arbitraires. L’approche expérimentale : Dans la perspective d’examiner cette question et vérifier notre hypothèse, nous avons jumelé deux paradigmes expérimentaux. En effet, les mouvements d’atteinte étaient soumis à une dissociation visuomotrice ainsi qu’à de rares essais composés de saut de cible. L’utilisation de dissociation visuomotrice permettait d’évaluer le degré d’adaptation des mécanismes impliqués dans le mouvement atteint. Les sauts de cible avaient l’avantage de permettre d’examiner la capacité d’adaptation à une dissociation visuomotrice des mécanismes impliqués dans la correction du mouvement (miroir : sur l’axe y, ou complète : inversion sur les axes x et y). Les résultats obtenus lors des analyses effectuées dans ce mémoire portent exclusivement sur l’habileté des participants à s’adapter aux deux dissociations visuomotrices à la première phase de planification du mouvement. Les résultats suggèrent que les mécanismes de planification du mouvement possèdent une grande capacité d’adaptation aux deux différentes dissociations visuomotrices. Les conclusions liées aux analyses présentées dans ce mémoire suggèrent que les mécanismes impliqués dans la phase de planification et d’initiation du mouvement parviennent relativement bien à s’adapter aux dissociations visuomotrices, miroir et inverse. Bien que les résultats démontrent une certaine distinction, entre les deux groupes à l’étude, quant aux délais nécessaires à cette adaptation, ils illustrent aussi un taux d’adaptation finale relativement similaire. L’analyse des réponses aux sauts de cible pourra être comparée aux résultats présentés dans ce mémoire afin de répondre à l’hypothèse de travail proposée par l’objectif initial de l’étude.