1000 resultados para circuit des récompenses
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
La navigation repose en majeure partie sur la vision puisque ce sens nous permet de rassembler des informations spatiales de façon simultanée et de mettre à jour notre position par rapport à notre environnement. Pour plusieurs aveugles qui se fient à l’audition, le toucher, la proprioception, l’odorat et l’écholocation pour naviguer, sortir à l’extérieur de chez soi peut représenter un défi considérable. Les recherches sur le circuit neuronal de la navigation chez cette population en particulier s’avèrent donc primordiales pour mieux adapter les ressources aux handicapés visuels et réussir à les sortir de leur isolement. Les aveugles de naissance constituent aussi une population d’intérêt pour l’étude de la neuroplasticité. Comme leur cerveau s’est construit en absence d’intrant visuel, la plupart des structures reliées au sens de la vue sont réduites en volume par rapport à ceux de sujets voyants. De plus, leur cortex occipital, une région normalement dédiée à la vision, possède une activité supramétabolique au repos, ce qui peut représenter un territoire vierge pouvant être recruté par les autres modalités pour exécuter diverses tâches sensorielles. Plusieurs chercheurs ont déjà démontré l’implication de cette région dans des tâches sensorielles comme la discrimination tactile et la localisation auditive. D’autres changements plastiques de nature intramodale ont aussi été observés dans le circuit neuronal de la navigation chez ces aveugles. Par exemple, la partie postérieure de l’hippocampe, impliquée dans l’utilisation de cartes mentales, est réduite en volume alors que la section antérieure est élargie chez ces sujets. Bien que ces changements plastiques anatomiques aient bel et bien été observés chez les aveugles de naissance, il reste toutefois à les relier avec leur aspect fonctionnel. Le but de la présente étude était d’investiguer les corrélats neuronaux de la navigation chez l’aveugle de naissance tout en les reliant avec leurs habiletés spatio-cognitives. La première étude comportementale a permis d’identifier chez les aveugles congénitaux une difficulté d’apprentissage de routes tactiles construites dans des labyrinthes de petite échelle. La seconde étude, employant la technique d’imagerie par résonance magnétique fonctionnelle, a relié ces faiblesses au recrutement de régions cérébrales impliquées dans le traitement d’une perspective égocentrique, comme le lobule pariétal supérieur droit. Alors que des sujets voyants aux yeux bandés excellaient dans la tâche des labyrinthes, ces derniers recrutaient des structures impliquées dans un traitement allocentrique, comme l’hippocampe et le parahippocampe. Par ailleurs, la deuxième étude a confirmé le recrutement du cortex occipital dans une tâche de navigation chez les aveugles seulement. Ceci confirme l’implication de la plasticité intermodale dans des tâches cognitives de plus haut niveau, comme la navigation.
Resumo:
Le fonctionnement du cortex cérébral nécessite l’action coordonnée de deux des sous-types majeurs de neurones, soient les neurones à projections glutamatergiques et les interneurones GABAergiques. Les interneurones GABAergiques ne constituent que 20 à 30% des cellules corticales par rapport au grand nombre de neurones glutamatergiques. Leur rôle est toutefois prépondérant puisqu’ils modulent fortement la dynamique et la plasticité des réseaux néocorticaux. Il n’est donc pas surprenant que les altérations de développement des circuits GABAergiques soient associées à plusieurs maladies du cerveau, incluant l’épilepsie, le syndrome de Rett et la schizophrénie. La compréhension des mécanismes moléculaires régissant le développement des circuits GABAergiques est une étape essentielle menant vers une meilleure compréhension de la façon dont les anormalités se produisent. Conséquemment, nous nous intéressons au rôle de l’acide polysialique (PSA) dans le développement des synapses GABAergiques. PSA est un homopolymère de chaînons polysialylés en α-2,8, et est exclusivement lié à la molécule d’adhésion aux cellules neuronales (NCAM) dans les cerveaux de mammifères. PSA est impliqué dans plusieurs processus développementaux, y compris la formation et la plasticité des synapses glutamatergiques, mais son rôle dans les réseaux GABAergiques reste à préciser. Les données générées dans le laboratoire du Dr. Di Cristo démontrent que PSA est fortement exprimé post- natalement dans le néocortex des rongeurs, que son abondance diminue au cours du développement, et, faits importants, que son expression dépend de l’activité visuelle i et est inversement corrélée à la maturation des synapses GABAergiques. La présente propose de caractériser les mécanismes moléculaires régulant l’expression de PSA dans le néocortex visuel de la souris. Les enzymes polysialyltransférases ST8SiaII (STX) et ST8SiaIV (PST) sont responsables de la formation de la chaîne de PSA sur NCAM. En contrôlant ainsi la quantité de PSA sur NCAM, ils influenceraient le développement des synapses GABAergiques. Mon projet consiste à déterminer comment l’expression des polysialyltransférases est régulée dans le néocortex visuel des souris durant la période post-natale; ces données sont à la fois inconnues, et cruciales. Nous utilisons un système de cultures organotypiques dont la maturation des synapses GABAergiques est comparable au modèle in vivo. L’analyse de l’expression génique par qPCR a démontré que l’expression des polysialyltransférases diminue au cours du développement; une baisse majeure corrélant avec l’ouverture des yeux chez la souris. Nous avons de plus illustré pour la première fois que l’expression de STX, et non celle de PST, est activité-dépendante, et que ce processus requiert l’activation du récepteur NMDA, une augmentation du niveau de calcium intracellulaire et la protéine kinase C (PKC). Ces données démontrent que STX est l’enzyme régulant préférentiellement le niveau de PSA sur NCAM au cours de la période post-natale dans le cortex visuel des souris. Des données préliminaires d’un second volet de notre investigation suggèrent que l’acétylation des histones et la méthylation de l’ADN pourraient également contribuer à la régulation de la transcription de cette enzyme durant le développement. Plus d’investigations seront toutefois nécessaires afin de confirmer cette hypothèse. En somme, la connaissance des mécanismes par lesquels l’expression des ii polysialyltransférases est modulée est essentielle à la compréhension du processus de maturation des synapses GABAergiques. Ceci permettrait de moduler pharmacologiquement l’expression de ces enzymes; la sur-expression de STX et/ou PST pourrait produire une plus grande quantité de PSA, déstabiliser les synapses GABAergiques, et conséquemment, ré-induire la plasticité cérébrale.
Resumo:
Un circuit arithmétique dont les entrées sont des entiers ou une variable x et dont les portes calculent la somme ou le produit représente un polynôme univarié. On assimile la complexité de représentation d'un polynôme par un circuit arithmétique au nombre de portes multiplicatives minimal requis pour cette modélisation. Et l'on cherche à obtenir une borne inférieure à cette complexité, et cela en fonction du degré d du polynôme. A une chaîne additive pour d, correspond un circuit arithmétique pour le monôme de degré d. La conjecture de Strassen prétend que le nombre minimal de portes multiplicatives requis pour représenter un polynôme de degré d est au moins la longueur minimale d'une chaîne additive pour d. La conjecture de Strassen généralisée correspondrait à la même proposition lorsque les portes du circuit arithmétique ont degré entrant g au lieu de 2. Le mémoire consiste d'une part en une généralisation du concept de chaînes additives, et une étude approfondie de leur construction. On s'y intéresse d'autre part aux polynômes qui peuvent être représentés avec très peu de portes multiplicatives (les d-gems). On combine enfin les deux études en lien avec la conjecture de Strassen. On obtient en particulier de nouveaux cas de circuits vérifiant la conjecture.
Resumo:
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.
Resumo:
But : Ce projet de recherche a comme objectif principal de mieux comprendre diverses facettes de la relation entraîneur-entrainée. Cette relation entre un entraîneur masculin et une athlète féminine en volleyball sera observée selon trois niveaux de compétition des athlètes – secondaire, collégial et universitaire. Trois aspects seront étudiés à travers les questions posées dans cette recherche : (1) Est-ce que la perception que les athlètes ont de la relation entraîneur-entraîné est différente selon le niveau de compétition de l’athlète? (2) Existe-il des différences dans la nature de la relation à l’intérieur d’un même niveau? (3) Est-ce que le nombre d’années qu’une athlète a passé avec le même entraîneur affecte la qualité de la relation?. Méthodologie : Évoluant sur le circuit québécois, les six équipes de volleyball et leur entraîneur respectif représentent l’échantillon de la présente étude. Les tests utilisés afin de réaliser les analyses univariées et bivariées de cette étude sont : le Test de Welch, les corrélations de Pearson ainsi que les tests post-hoc de Games-Howell. Résultats : (1) Les athlètes du secondaire partagent une relation de meilleure qualité avec leur entraîneur que celles du cégep et de l’université. (2) Dans un même niveau de compétition, ce qui différencie la qualité de la relation est : le rôle de la joueuse dans son équipe ainsi que le nombre de sports organisés dans lesquels elle participe (relations proportionnelles). (3) Une relation inverse existe entre le nombre d’années vécues par la dyade entraîneur-athlète et la qualité de la relation.
Resumo:
Ce mémoire est rédigé dans le cadre d’une recherche multidisciplinaire visant à développer de meilleurs outils d’intervention et politiques en santé mentale au travail. L’objectif principal de cette étude était de cibler les déterminants de l’épuisement professionnel et des troubles musculosquelettiques et leur cooccurrence chez une population policière. Un échantillon de 410 policiers du Service de Police de Montréal (SPVM) a été sondé à l’aide d’un questionnaire basé sur des outils standardisés en santé mentale au travail. Les conditions organisationnelles, variables indépendantes de cette étude, ont été identifiées à partir de modèles théoriques validés. L’analyse segmentée de chacun des grands concepts (latitude décisionnelle, soutien social au travail, demandes, justice distributive et sur engagement) révèle que l’effet des conditions organisationnelles ne se manifeste pas également sur chacune des trois dimensions de l’épuisement professionnel (l’épuisement émotionnel, le cynisme et l’efficacité professionnelle). De plus, on observe que les trois formes de récompenses de justice distributive tirées du modèle « Déséquilibre-Efforts-Récompenses » (Siegrist, 1996) ne sont pas distribuées également selon les dimensions de l’épuisement professionnel. Selon nos données, la justice distributive d’estime de soi et le sur engagement s’avèrent significatifs dans tous les cas en regard des dimensions de l’épuisement professionnel et de son indice global. Finalement, nos résultats révèlent que la justice distributive d’estime de soi a un lien significatif sur la cooccurrence de l’épuisement professionnel et des troubles musculosquelettiques. Par contre, on note que des outils de recherche plus spécifiques permettraient une analyse approfondie de l’effet des conditions organisationnelles sur les troubles musculosquelettiques et sur l’effet de cooccurrence entre les deux problèmes à l’étude.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
La voie dopaminergique mésolimbique qui prend son origine dans le mésencéphale ventral et qui projette vers des régions rostrales du système limbique fait partie du substrat nerveux qui contrôle la récompense et les comportements motivés. Il a été suggéré qu’un signal de récompense est produit lorsque le patron de décharge des neurones dopaminergiques passe d’un mode tonique à un mode phasique, une transition qui est initiée par l’action du glutamate aux récepteurs N-Méthyl-D-aspartate (NMDA). Étant donné qu’une altération du système de récompense est souvent associée à des anomalies cliniques telles que l’addiction compulsive et à des troubles émotionnels tels que l’anhédonie, nous avons étudié le rôle des récepteurs NMDA dans la récompense induite par la stimulation électrique intracérébrale. Puisque les récepteurs NMDA sont composés de sous-unités distinctes, GluN1, GluN2 et GluN3, nous avons étudié le rôle de deux sous-unités qui sont présentes dans le mésencéphale ventral : GluN2A et GluN2B. Les résultats montrent que des injections mésencéphaliques de R-CPP et de PPPA, des antagonistes préférentiels aux sous-unités GluN2A/B, ont produit une augmentation dose-dépendante de l’effet de récompense, un effet qui était, à certains temps après les injections, accompagné d’une augmentation du nombre de réponses maximales. Ces effets n’ont pas été observés après l’injection d’une large gamme de doses de Ro04-5595, un antagoniste des sous-unités GluN2B. Ces résultats suggèrent que le glutamate mésencéphalique exerce une modulation négative sur le circuit de récompense, un effet dû à son action au niveau des récepteurs NMDA composés des sous-unités GluN2A.
Resumo:
La solidarité est souvent présentée comme incompatible avec la responsabilité individuelle qui est essentiellement comprise comme l’application de sanctions et récompenses inspirées par la méritocratie. Nous développons un concept, la responsabilisation capacitante, qui est de nature à réconcilier la solidarité et les exigences de responsabilité individuelle en évitant toutefois les écueils de la méritocratie. Nous montrons que la pratique du care peut susciter la (re)découverte de la liberté ontologique des patients qui peuvent ainsi devenir responsables et ‘capables’ de leur santé et de leurs soins. Cette responsabilisation ne se limite pas à l’individu, elle le porte vers une responsabilité politique qui lui permet de faire et d’assumer des choix collectifs.
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Resumo:
Le but de ce projet est d’étudier l’effet des défauts cristallins sur les propriétés optoélectroniques de photodétecteurs fabriqué à partir de « silicium noir », c’est-à-dire du silicium dopé et microstructuré par impulsions laser femtoseconde, ce qui lui donne une apparence noire mate caractéristique. Des échantillons de silicium noir ont été recuits puis implantés avec des ions ayant une énergie de 300 keV (Si+), 1500 keV (Si+) ou 2000 keV (H+). Trois fluences pour chaque énergie d’implantation ont été utilisées (1E11, 1E12, ou 1E13 ions/cm2) ce qui modifie le matériau en ajoutant des défauts cristallins à des profondeurs et concentrations variées. Neuf photodétecteurs ont été réalisés à partir de ces échantillons implantés, en plus d’un détecteur-contrôle (non-implanté). La courbe de courant-tension, la sensibilité spectrale et la réponse en fréquence ont été mesurées pour chaque détecteur afin de les comparer. Les détecteurs ont une relation de courant-tension presque ohmique, mais ceux implantés à plus haute fluence montrent une meilleure rectification. Les implantations ont eu pour effet, en général, d’augmenter la sensibilité des détecteurs. Par exemple, l’efficacité quantique externe passe de (0,069±0,001) % à 900 nm pour le détecteur-contrôle à (26,0±0,5) % pour le détecteur ayant reçu une fluence de 1E12 cm-2 d’ions de silicium de 1500 keV. Avec une tension appliquée de -0,50 V, la sensibilité est améliorée et certains détecteurs montrent un facteur de gain de photocourant supérieur à l’unité, ce qui implique un mécanisme de multiplication (avalanche ou photoconductivité). De même, la fréquence de coupure a été augmentée par l’implantation. Une technique purement optique a été mise à l’essai pour mesurer sans contacts la durée de vie effective des porteurs, dans le but d’observer une réduction de la durée de vie causée par les défauts. Utilisant le principe de la réflexion photo-induite résolue en fréquence, le montage n’a pas réuni toutes les conditions expérimentales nécessaires à la détection du signal.
Resumo:
L’encéphalopathie hypoxique-‐ischémique cause des milliers de victimes à travers le monde chaque année. Les enfants survivants à un épisode hypoxique-‐ischémique sont à risque de développer des problèmes neurologiques incapacitants comme une paralysie cérébrale, un retard mental, une épilepsie ou des troubles d’ordre comportemental. Les modèles animaux ont amélioré nos connaissances sur les mécanismes sous-‐jacents aux dommages cérébraux, mais elles sont encore trop incomplètes pour être capables de prévenir les problèmes neurologiques. Ce projet vise à comprendre l’impact d’un épisode asphyxique périnatale associé à des convulsions ainsi que l’activation de l’adenosine monophosphate-‐activated protein kinase (AMPK) sur les circuits GABAergiques inhibiteurs en développement chez la souris. Dans le but d’investiguer le sort des neurones inhibiteurs, appelés interneurones, suite à un épisode asphyxique périnatal associé à des convulsions avec des animaux transgéniques, nous avons pris avantage d’un nouveau modèle d’hypoxie permettant d’induire des convulsions chez la souris. Deux populations d’interneurones représentant ensemble environ 60% de tous les interneurones corticaux ont été étudiées, soit les cellules exprimant la parvalbumine (PV) et les cellules exprimant la somatostatine (SOM). L’étude stéréologique n’a montré aucune mort neuronale de ces deux populations d’interneurones dans l’hippocampe chez les souris hypoxique d’âge adulte. Par contre, le cortex des souris hypoxiques présentait des zones complètement ou fortement dépourvues de cellules PV alors que les cellules SOM n’étaient pas affectées. L’utilisation d’une lignée de souris transgénique exprimant une protéine verte fluorescente (GFP) dans les cellules PV nous a permis de comprendre que les trous PV sont le reflet de deux choses : 1) une diminution des cellules PV et 2) une immaturité des cellules PV restantes. Puisque les cellules PV sont spécifiquement affectées dans la première partie de notre étude, nous avons voulu étudier les mécanismes moléculaires sous-‐jacents à cette vulnérabilité. L’AMPK est un senseur d’énergie qui orchestre le rétablissement des i niveaux d’énergie cellulaire dans le cas d’une déplétion énergétique en modulant des voies de signalisation impliquant la synthèse de protéines et l’excitabilité membranaire. Il est possible que l’activation d’AMPK suite à un épisode asphyxique périnatal associé à des convulsions soit néfaste à long-‐terme pour le circuit GABAergique en développement et modifie l’établissement de l’innervation périsomatique d’une cellule PV sur les cellules pyramidales. Nous avons étudié cette hypothèse dans un modèle de culture organotypique en surexprimant la forme wild-‐type (WT) de la sous-‐unité α2 d’AMPK, ainsi qu’une forme mutée dominante négative (DN), dans des cellules PV individuelles. Nous avons montré que pendant la phase de formation synaptique (jours post-‐natals équivalents EP 10-‐18), la surexpression de la forme WT désorganise la stabilisation des synapses. De plus, l’abolition de l’activité d’AMPK semble augmenter le nombre de synapses périsomatiques faits par la cellule PV sur les cellules pyramidales pendant la phase de formation et semble avoir l’effet inverse pendant la phase de maturation (EP 16-‐24). La neurotransmission GABAergique joue plusieurs rôles dans le cerveau, depuis la naissance jusqu’à l’âge adulte des interneurones, et une dysfonction des interneurones a été associée à plusieurs troubles neurologiques, comme la schizophrénie, l’autisme et l’épilepsie. La maturation des circuits GABAergiques se fait majoritairement pendant la période post-‐natale et est hautement dépendante de l’activité neuronale et de l’expérience sensorielle. Nos résultats révèlent que le lourd fardeau en demande énergétique d’un épisode asphyxique périnatal peut causer une mort neuronale sélective des cellules PV et compromettre l’intégrité de leur maturation. Un des mécanismes sous-‐ jacents possible à cette immaturité des cellules PV suite à l’épisode hypoxique est l’activation d’AMPK, en désorganisant leur profil d’innervation sur les cellules pyramidales. Nous pensons que ces changements dans le réseau GABAergique pourrait contribuer aux problèmes neurologiques associés à une insulte hypoxique.
Resumo:
À ce jour, plusieurs études se sont penchées sur l’influence des comportements problématiques des enfants présentant un trouble déficitaire de l'attention avec ou sans hyperactivité (TDAH) sur les pratiques parentales (Chronis-Tuscano et al., 2008), mais peu de recherches se sont intéressées à la relation entre ce que pensent les parents et la façon dont ils se comportent avec leur enfant (Rudy & Grusec, 2006). L’objectif principal de cette thèse est d’étudier la relation entre les cognitions sociales des parents, les pratiques parentales et les caractéristiques comportementales de l’enfant présentant un TDAH. Une première étude examine la relation entre les cognitions sociales des parents (attributions causales, sentiment d’auto-efficacité parental (SAEP)), les caractéristiques comportementales de l’enfant (sous-type TDAH, symptômes concomitants) en lien avec les pratiques parentales utilisées. Cent dix familles dont l’enfant a un TDAH ont participé à l’étude. Les résultats indiquent que plus les parents ont un SAEP élevé, plus ils rapportent employer une discipline appropriée, une discipline verbale positive, des félicitations/récompenses et moins ils rapportent utiliser une discipline sévère/inconstante ou la punition physique. Les résultats montrent également que l’attribution des comportements de désobéissance de l’enfant soit à l’effort important du parent, soit au manque d’effort de l’enfant joue un rôle prédicteur en regard respectivement de l’utilisation d’une discipline verbale positive ou de l’utilisation d’une discipline sévère et inconstante par le parent. Par ailleurs, le fait de percevoir des symptômes d’opposition chez l’enfant TDAH prédit l’utilisation d’une discipline appropriée et d’une discipline verbale positive. Enfin, la présence de symptômes concomitants au TDAH prédit l’utilisation d’une discipline sévère et inconstante. L’objectif de la seconde étude est d’examiner le rôle des cognitions sociales des parents d’enfant ayant un TDAH en lien avec les pratiques parentales utilisées après leur participation à deux types d’intervention (programme d’entraînement aux habiletés parentales (PEHP) ou soutien téléphonique (ST)) comparativement à un groupe contrôle (GC). Les résultats suggèrent que dans certains cas, le SAEP ou les attributions causales prédisent différemment les pratiques parentales selon que les parents ont ou non participé à une intervention, mais il est prématuré de conclure que les cognitions sociales des parents d’enfant TDAH sont des modérateurs du changement des pratiques parentales. Les implications méthodologiques, conceptuelles et cliniques de ces deux études sont discutées.
Resumo:
La lithographie et la loi de Moore ont permis des avancées extraordinaires dans la fabrication des circuits intégrés. De nos jours, plusieurs systèmes très complexes peuvent être embarqués sur la même puce électronique. Les contraintes de développement de ces systèmes sont tellement grandes qu’une bonne planification dès le début de leur cycle de développement est incontournable. Ainsi, la planification de la gestion énergétique au début du cycle de développement est devenue une phase importante dans la conception de ces systèmes. Pendant plusieurs années, l’idée était de réduire la consommation énergétique en ajoutant un mécanisme physique une fois le circuit créé, comme par exemple un dissipateur de chaleur. La stratégie actuelle est d’intégrer les contraintes énergétiques dès les premières phases de la conception des circuits. Il est donc essentiel de bien connaître la dissipation d’énergie avant l’intégration des composantes dans une architecture d’un système multiprocesseurs de façon à ce que chaque composante puisse fonctionner efficacement dans les limites de ses contraintes thermiques. Lorsqu’une composante fonctionne, elle consomme de l’énergie électrique qui est transformée en dégagement de chaleur. Le but de ce mémoire est de trouver une affectation efficace des composantes dans une architecture de multiprocesseurs en trois dimensions en tenant compte des limites des facteurs thermiques de ce système.