51 resultados para Interneuron Specification
Resumo:
Le fonctionnement du cortex cérébral nécessite l’action coordonnée de deux des sous-types majeurs de neurones, soient les neurones à projections glutamatergiques et les interneurones GABAergiques. Les interneurones GABAergiques ne constituent que 20 à 30% des cellules corticales par rapport au grand nombre de neurones glutamatergiques. Leur rôle est toutefois prépondérant puisqu’ils modulent fortement la dynamique et la plasticité des réseaux néocorticaux. Il n’est donc pas surprenant que les altérations de développement des circuits GABAergiques soient associées à plusieurs maladies du cerveau, incluant l’épilepsie, le syndrome de Rett et la schizophrénie. La compréhension des mécanismes moléculaires régissant le développement des circuits GABAergiques est une étape essentielle menant vers une meilleure compréhension de la façon dont les anormalités se produisent. Conséquemment, nous nous intéressons au rôle de l’acide polysialique (PSA) dans le développement des synapses GABAergiques. PSA est un homopolymère de chaînons polysialylés en α-2,8, et est exclusivement lié à la molécule d’adhésion aux cellules neuronales (NCAM) dans les cerveaux de mammifères. PSA est impliqué dans plusieurs processus développementaux, y compris la formation et la plasticité des synapses glutamatergiques, mais son rôle dans les réseaux GABAergiques reste à préciser. Les données générées dans le laboratoire du Dr. Di Cristo démontrent que PSA est fortement exprimé post- natalement dans le néocortex des rongeurs, que son abondance diminue au cours du développement, et, faits importants, que son expression dépend de l’activité visuelle i et est inversement corrélée à la maturation des synapses GABAergiques. La présente propose de caractériser les mécanismes moléculaires régulant l’expression de PSA dans le néocortex visuel de la souris. Les enzymes polysialyltransférases ST8SiaII (STX) et ST8SiaIV (PST) sont responsables de la formation de la chaîne de PSA sur NCAM. En contrôlant ainsi la quantité de PSA sur NCAM, ils influenceraient le développement des synapses GABAergiques. Mon projet consiste à déterminer comment l’expression des polysialyltransférases est régulée dans le néocortex visuel des souris durant la période post-natale; ces données sont à la fois inconnues, et cruciales. Nous utilisons un système de cultures organotypiques dont la maturation des synapses GABAergiques est comparable au modèle in vivo. L’analyse de l’expression génique par qPCR a démontré que l’expression des polysialyltransférases diminue au cours du développement; une baisse majeure corrélant avec l’ouverture des yeux chez la souris. Nous avons de plus illustré pour la première fois que l’expression de STX, et non celle de PST, est activité-dépendante, et que ce processus requiert l’activation du récepteur NMDA, une augmentation du niveau de calcium intracellulaire et la protéine kinase C (PKC). Ces données démontrent que STX est l’enzyme régulant préférentiellement le niveau de PSA sur NCAM au cours de la période post-natale dans le cortex visuel des souris. Des données préliminaires d’un second volet de notre investigation suggèrent que l’acétylation des histones et la méthylation de l’ADN pourraient également contribuer à la régulation de la transcription de cette enzyme durant le développement. Plus d’investigations seront toutefois nécessaires afin de confirmer cette hypothèse. En somme, la connaissance des mécanismes par lesquels l’expression des ii polysialyltransférases est modulée est essentielle à la compréhension du processus de maturation des synapses GABAergiques. Ceci permettrait de moduler pharmacologiquement l’expression de ces enzymes; la sur-expression de STX et/ou PST pourrait produire une plus grande quantité de PSA, déstabiliser les synapses GABAergiques, et conséquemment, ré-induire la plasticité cérébrale.
Resumo:
Contexte et objectifs. En 1995, le gouvernement canadien a promulgué la Loi C-68, rendant ainsi obligatoire l’enregistrement de toutes les armes à feu et affermissant les vérifications auprès des futurs propriétaires. Faute de preuves scientifiques crédibles, le potentiel de cette loi à prévenir les homicides est présentement remis en question. Tout en surmontant les biais potentiels retrouvés dans les évaluations antérieures, l’objectif de ce mémoire est d’évaluer l’effet de la Loi C-68 sur les homicides au Québec entre 1974 et 2006. Méthodologie. L’effet de la Loi C-68 est évalué à l’aide d’une analyse des bornes extrêmes. Les effets immédiats et graduels de la Loi sont évalués à l’aide de 372 équations. Brièvement, il s’agit d’analyses de séries chronologiques interrompues où toutes les combinaisons de variables indépendantes sont envisagées afin d’éviter les biais relatifs à une spécification arbitraire des modèles. Résultats. L’introduction de la Loi C-68 est associée à une baisse graduelle des homicides commis à l’aide d’armes longues (carabines et fusils de chasse), sans qu’aucun déplacement tactique ne soit observé. Les homicides commis par des armes à feu à autorisation restreinte ou prohibées semblent influencés par des facteurs différents. Conclusion. Les résultats suggèrent que le contrôle des armes à feu est une mesure efficace pour prévenir les homicides. L’absence de déplacement tactique suggère également que l’arme à feu constitue un important facilitateur et que les homicides ne sont pas tous prémédités. D’autres études sont toutefois nécessaires pour clairement identifier les mécanismes de la Loi responsables de la baisse des homicides.
Resumo:
Considérées comme des moyens incontournables de participation à la société, les technologies de l’information et de la communication (TIC) constituent une piste de solution prometteuse pour l’enseignement et l’apprentissage auprès des élèves qui ont des incapacités intellectuelles. Toutefois, plusieurs auteurs dénoncent la faible utilisation des TIC en éducation de ces élèves. Pire encore, les recherches sur le sujet génèrent des résultats intéressants, mais d’une contribution limitée pour l’avancement des connaissances dans le domaine. Guidées par l’intuition et par un enthousiasme empirique évident, ces recherches s’appuient rarement sur des cadres de référence. Certes la documentation scientifique foisonne de champs de savoirs qui peuvent contribuer à ce domaine, mais ces contributions sont parcellaires et peu adaptées aux spécificités de ce dernier. L’intervention avec les TIC auprès des élèves qui ont des incapacités intellectuelles demeure donc un champ conceptuel mal défini qui n'est légitimé par aucun cadre de référence en particulier. Cette recherche doctorale se situe en phase de préconception d’un modèle de l’intervention avec les TIC auprès des élèves qui ont des incapacités intellectuelles. Elle vise à mettre en place des balises solides pouvant servir de cadre à l’élaboration d’un modèle de cette intervention. Dans cette phase de préconception, nous poursuivons deux objectifs, à savoir : 1) la mise au point d’un référentiel qui constitue un cadre intégrateur des connaissances existantes en la matière, qui servira avant tout à structurer et à organiser les informations disponibles à l’intérieur d’une synthèse validée par des experts et des intervenants oeuvrant auprès de ce type d’élèves et 2) l’élaboration d’un cahier des charges fonctionnel qui s’appuie sur le référentiel développé et qui précise les fonctions qu’un modèle idéal de l’intervention avec les TIC auprès des élèves qui ont des incapacités intellectuelles devrait remplir pour répondre pleinement aux besoins de ses différents utilisateurs. Ces balises (le référentiel et le cahier des charges fonctionnel) sont destinées, principalement, à des chercheurs, des concepteurs de technologies, des formateurs d’enseignants, etc. Les élèves, les enseignants et autres agents de l'éducation pourront en bénéficier indirectement à travers les applications dérivées de ces balises (programmes de formation, technologies, recherches, scénarios pédagogiques, etc.).
Resumo:
Cette étude de cas vise à comparer le modèle de soins implanté sur le territoire d’un centre de santé et des services sociaux (CSSS) de la région de Montréal aux modèles de soins en étapes et à examiner l’influence de facteurs contextuels sur l’implantation de ce modèle. Au total, 13 cliniciens et gestionnaires travaillant à l’interface entre la première et la deuxième ligne ont participé à une entrevue semi-structurée. Les résultats montrent que le modèle de soins hiérarchisés implanté se compare en plusieurs points aux modèles de soins en étapes. Cependant, certains éléments de ces derniers sont à intégrer afin d’améliorer l’efficience et la qualité des soins, notamment l’introduction de critères d’évaluation objectifs et la spécification des interventions démontrées efficaces à privilégier. Aussi, plusieurs facteurs influençant l’implantation d’un modèle de soins hiérarchisés sont dégagés. Parmi ceux-ci, la présence de concertation et de lieux d’apprentissage représente un élément clé. Néanmoins, certains éléments sont à considérer pour favoriser sa réussite dont l’uniformisation des critères et des mécanismes de référence, la clarification des rôles du guichet d’accès en santé mentale et l’adhésion des omnipraticiens au modèle de soins hiérarchisés. En somme, l’utilisation des cadres de référence et d’analyse peut guider les gestionnaires sur les enjeux à considérer pour favoriser l’implantation d’un modèle de soins basé sur les données probantes, ce qui, à long terme, devrait améliorer l’efficience des services offerts et leur adéquation avec les besoins populationnels.
Resumo:
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.
Resumo:
Le réalisme des images en infographie exige de créer des objets (ou des scènes) de plus en plus complexes, ce qui entraîne des coûts considérables. La modélisation procédurale peut aider à automatiser le processus de création, à simplifier le processus de modification ou à générer de multiples variantes d'une instance d'objet. Cependant même si plusieurs méthodes procédurales existent, aucune méthode unique permet de créer tous les types d'objets complexes, dont en particulier un édifice complet. Les travaux réalisés dans le cadre de cette thèse proposent deux solutions au problème de la modélisation procédurale: une solution au niveau de la géométrie de base, et l’autre sous forme d'un système général adapté à la modélisation des objets complexes. Premièrement, nous présentons le bloc, une nouvelle primitive de modélisation simple et générale, basée sur une forme cubique généralisée. Les blocs sont disposés et connectés entre eux pour constituer la forme de base des objets, à partir de laquelle est extrait un maillage de contrôle pouvant produire des arêtes lisses et vives. La nature volumétrique des blocs permet une spécification simple de la topologie, ainsi que le support des opérations de CSG entre les blocs. La paramétrisation de la surface, héritée des faces des blocs, fournit un soutien pour les textures et les fonctions de déplacements afin d'appliquer des détails de surface. Une variété d'exemples illustrent la généralité des blocs dans des contextes de modélisation à la fois interactive et procédurale. Deuxièmement, nous présentons un nouveau système de modélisation procédurale qui unifie diverses techniques dans un cadre commun. Notre système repose sur le concept de composants pour définir spatialement et sémantiquement divers éléments. À travers une série de déclarations successives exécutées sur un sous-ensemble de composants obtenus à l'aide de requêtes, nous créons un arbre de composants définissant ultimement un objet dont la géométrie est générée à l'aide des blocs. Nous avons appliqué notre concept de modélisation par composants à la génération d'édifices complets, avec intérieurs et extérieurs cohérents. Ce nouveau système s'avère général et bien adapté pour le partionnement des espaces, l'insertion d'ouvertures (portes et fenêtres), l'intégration d'escaliers, la décoration de façades et de murs, l'agencement de meubles, et diverses autres opérations nécessaires lors de la construction d'un édifice complet.
Resumo:
La politique québécoise de l’adaptation scolaire confirme que le plan d’intervention (PI) constitue l’outil privilégié pour répondre aux besoins des élèves handicapés ou en difficulté d’adaptation ou d’apprentissage. Toutefois, la recension des écrits nous informe que le plan d’intervention est encore loin d’être efficace. Le Ministère de l’Éducation, des Loisirs et des Sports du Québec (MELS, 2004) ainsi que l’Office of Special Education and Rehabilitative Services des U.S. department of Education (dans Eichler, 1999) ont bien identifié et présenté explicitement cinq à six fonctions du PI mais, aucun des deux organismes ne définit ce qu’est une fonction, à quoi elle sert, son importance relative et ce qu’elle implique. De plus, on retrouve, explicitement ou implicitement, soit dans le cadre de référence pour l’établissement des PI (MELS, 2004), soit dans la revue de la littérature, soit dans les milieux de pratique plusieurs autres fonctions que le PI remplit ou devrait remplir. Ce flou entourant le concept de fonction entraîne un manque de rigueur dans la conception des PI, car « lorsque la totalité des fonctions a été identifiée, elle permet le développement d’un produit répondant à l’usage attendu » (Langevin et coll., 1998). Il y a d’emblée une somme de fonctions qu’un PI remplit déjà et d’autres sûrement à remplir. Or, cela n’a pas été élucidé, précisé et validé. Le but de la présente recherche a été de définir les rôles du PI au regard des besoins de ses différents utilisateurs. Les objectifs spécifiques ont été les suivants, 1) Identifier les différents utilisateurs d’un PI, 2) Identifier les besoins des différents utilisateurs d’un PI, 3) Identifier les fonctions qu’un PI doit remplir afin de satisfaire les besoins de ses utilisateurs, 4) Créer un cahier des charges fonctionnel pour la conception et l’évaluation d’un PI, 5) Identifier certains coûts reliés à la conception d’un PI. Afin d’atteindre les objectifs précités, nous avons eu recours à la méthode de l’analyse de la valeur pédagogique (AVP) (Langevin, Rocque et Riopel, 2008). La méthode d’AVP comportait une analyse des besoins des différents utilisateurs potentiels, une analyse de la recension des écrits, une analyse des encadrements légaux, une analyse de produits types et une analyse écosystémique. En conclusion, nous avons identifié les différents utilisateurs potentiels d’un PI, identifié les différents besoins de ces utilisateurs, identifié les fonctions qu’un PI doit remplir pour satisfaire leurs besoins, crée un cahier des charges fonctionnel (CdCF) pour la conception et l’évaluation des PI et identifié certains coûts liés à la conception d’un PI. Le CdCF pourra servir à concevoir des PI et à évaluer leur efficience. Une partie du CdCF pourra aussi remplir un rôle prescriptif pour la conception d’outil de soutien à l’élaboration du PI. Enfin, le CdCF pourra servir à la formation et à la recherche en éducation.
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
The central hypothesis to be tested is the relevance of gold in the determination of the value of the US dollar as an international reserve currency after 1971. In the first section the market value of the US dollar is analysed by looking at new forms of value (financial derivative products), the dollar as a safe haven, the choice of a standard of value and the role of SDRs in reforming the international monetary system. Based on dimensional analysis, the second section analyses the definition and meaning of a numéraire for international currency and the justification for a variable standard of value based on a commodity (gold). The second section is the theoretical foundation for the empirical and econometric analysis in the third and fourth sections. The third section is devoted to the specification of an econometric model and a graphical analysis of the data. It is clear that an inverse relation exists between the value of the US dollar and the price of gold. The fourth section shows the estimations of the different specifications of the model including linear regression and cointegration analysis. The most important econometric result is that the null hypothesis is rejected in favour of a significant link between the price of gold and the value of the US dollar. There is also a positive relationship between gold price and inflation. An inverse statistically significant relation between gold price and monetary policy is shown by applying a dynamic model of cointegration with lags.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Le travail présenté dans cette thèse porte sur le rôle du cortex prémoteur dorsal (PMd) au sujet de la prise de décision (sélection d’une action parmis nombreux choix) et l'orientation visuelle des mouvements du bras. L’ouvrage décrit des expériences électrophysiologiques chez le singe éveillé (Macaca mulatta) permettant d’adresser une fraction importante des prédictions proposées par l'hypothèse des affordances concurrentes (Cisek, 2006; Cisek, 2007a). Cette hypothèse suggère que le choix de toute action est l’issue d'une concurrence entre les représentations internes des exigences et des atouts de chacune des options présentées (affordances; Gibson, 1979). Un intérêt particulier est donné au traitement de l'information spatiale et la valeur des options (expected value, EV) dans la prise de décisions. La première étude (article 1) explore la façon dont PMd reflète ces deux paramètres dans la période délai ainsi que de leur intéraction. La deuxième étude (article 2) explore le mécanisme de décision de façon plus détaillée et étend les résultats au cortex prémoteur ventral (PMv). Cette étude porte également sur la représentation spatiale et l’EV dans une perspective d'apprentissage. Dans un environnement nouveau les paramètres spatiaux des actions semblent être présents en tout temps dans PMd, malgré que la représentation de l’EV apparaît uniquement lorsque les animaux commencent à prendre des décisions éclairées au sujet de la valeur des options disponibles. La troisième étude (article 3) explore la façon dont PMd est impliqué aux “changements d'esprit“ dans un procès de décision. Cette étude décrit comment la sélection d’une action est mise à jour à la suite d'une instruction de mouvement (GO signal). I II Les résultats principaux des études sont reproduits par un modèle computationnel (Cisek, 2006) suggérant que la prise de décision entre plusieurs actions alternatives peux se faire par voie d’un mécanisme de concurrence (biased competition) qui aurait lieu dans la même région qui spécifie les actions.
Resumo:
La complexité de la tâche qu’est la lecture du français en interaction avec les caractéristiques de la personne qui a un retard de deux ans en lecture, la population cible de cette recherche, place cette dernière en situation d’échec. Tous les processus impliqués dans l’acte de lire en interaction avec ces caractéristiques induisent des échecs et des retards d’apprentissage de la lecture. L’enseignant, qui souhaite utiliser un manuel scolaire tout en intégrant un élève de 3e année ne sachant toujours pas lire, a deux choix : lui offrir un manuel de 1re année, un manuel de 3e année ou adapter lui-même son matériel. Si l’enseignant lui remet un manuel de 1re année, l’élève vit des réussites, mais les thèmes sont infantilisants. Si l’enseignant remet un manuel de 3e année à ce même élève, les thèmes ne sont pas infantilisants, mais le niveau en lecture place ce dernier systématiquement en situation d’échec. Si l’enseignant adapte lui-même le matériel, l’entreprise est grande en charge de travail pour ce dernier. En réponse à ce dilemme, le Groupe DÉFI Accessibilité (GDA) a conçu des manuels scolaires adaptés. Ils sont, à première vue, identiques à la version originale Signet (3e année), mêmes thèmes, mêmes titres, mêmes numéros de pages, mêmes illustrations et mêmes réponses aux deux premières questions de chaque page, mais les textes sont simplifiés afin de permettre la lecture à l’élève de 3e année qui a deux ans de retard dans cette matière. En accord avec une stratégie de design inclusif, la simplification des manuels par le GDA a été réalisée en fonction des caractéristiques d’un groupe de référence reconnu pour avoir de grandes difficultés d’apprentissage de la lecture, soit des élèves qui ont des incapacités intellectuelles (Langevin, Rocque, Ngongang et Chaghoumi, 2012). L’objet de cette thèse est le calcul de la productivité et de l’efficience de ces manuels scolaires adaptés auprès d’élèves qui ont deux années de retard en lecture, la population cible. La méthodologie utilisée pour cette recherche est l’analyse de la valeur pédagogique, une méthode systématique de développement et d’évaluation de produits, procédés ou services, adaptée de l’ingénierie. Cette recherche a pour objet la troisième et dernière phase de l’analyse de la valeur pédagogique, soit l’évaluation des manuels scolaires adaptés. En analyse de la valeur pédagogique, comme pour cette recherche, la mise à l’essai a deux objectifs : comparer le prototype créé au cahier des charges fonctionnel regroupant toutes les fonctions que devrait remplir le produit pour répondre aux besoins de ses utilisateurs potentiels et calculer la productivité/efficience. Puisqu’il s’agit d’une première mise à l’essai, un troisième objectif est ajouté, soit la proposition de pistes d’amélioration au prototype de manuels scolaires adaptés. La mise à l’essai s’est échelonnée sur six mois. L’échantillon regroupe quatre enseignantes de 3e année, deux en classes spéciales et deux en classes régulières. Ces dernières enseignent à 32 élèves utilisateurs des manuels scolaires adaptés : six sont dyslexiques, quatre ont une connaissance insuffisante de la langue française, un a un trouble envahissant du développement avec incapacités intellectuelles et 21 ont des incapacités intellectuelles légères. Les résultats sont présentés sous la forme de trois articles. Les quatre enseignantes ont confirmé la réponse des manuels scolaires adaptés au cahier des charges fonctionnel. De plus, la phase de conception a été jugée efficiente et la phase d’utilisation productive. Il n’y a pas de modification à faire aux manuels scolaires adaptés. Par contre, le guide d’utilisateur doit être modifié, puisque l’outil n’a pas été utilisé tel qu’il était prévu par l’équipe de conception.
Resumo:
L’encéphalopathie hypoxique-‐ischémique cause des milliers de victimes à travers le monde chaque année. Les enfants survivants à un épisode hypoxique-‐ischémique sont à risque de développer des problèmes neurologiques incapacitants comme une paralysie cérébrale, un retard mental, une épilepsie ou des troubles d’ordre comportemental. Les modèles animaux ont amélioré nos connaissances sur les mécanismes sous-‐jacents aux dommages cérébraux, mais elles sont encore trop incomplètes pour être capables de prévenir les problèmes neurologiques. Ce projet vise à comprendre l’impact d’un épisode asphyxique périnatale associé à des convulsions ainsi que l’activation de l’adenosine monophosphate-‐activated protein kinase (AMPK) sur les circuits GABAergiques inhibiteurs en développement chez la souris. Dans le but d’investiguer le sort des neurones inhibiteurs, appelés interneurones, suite à un épisode asphyxique périnatal associé à des convulsions avec des animaux transgéniques, nous avons pris avantage d’un nouveau modèle d’hypoxie permettant d’induire des convulsions chez la souris. Deux populations d’interneurones représentant ensemble environ 60% de tous les interneurones corticaux ont été étudiées, soit les cellules exprimant la parvalbumine (PV) et les cellules exprimant la somatostatine (SOM). L’étude stéréologique n’a montré aucune mort neuronale de ces deux populations d’interneurones dans l’hippocampe chez les souris hypoxique d’âge adulte. Par contre, le cortex des souris hypoxiques présentait des zones complètement ou fortement dépourvues de cellules PV alors que les cellules SOM n’étaient pas affectées. L’utilisation d’une lignée de souris transgénique exprimant une protéine verte fluorescente (GFP) dans les cellules PV nous a permis de comprendre que les trous PV sont le reflet de deux choses : 1) une diminution des cellules PV et 2) une immaturité des cellules PV restantes. Puisque les cellules PV sont spécifiquement affectées dans la première partie de notre étude, nous avons voulu étudier les mécanismes moléculaires sous-‐jacents à cette vulnérabilité. L’AMPK est un senseur d’énergie qui orchestre le rétablissement des i niveaux d’énergie cellulaire dans le cas d’une déplétion énergétique en modulant des voies de signalisation impliquant la synthèse de protéines et l’excitabilité membranaire. Il est possible que l’activation d’AMPK suite à un épisode asphyxique périnatal associé à des convulsions soit néfaste à long-‐terme pour le circuit GABAergique en développement et modifie l’établissement de l’innervation périsomatique d’une cellule PV sur les cellules pyramidales. Nous avons étudié cette hypothèse dans un modèle de culture organotypique en surexprimant la forme wild-‐type (WT) de la sous-‐unité α2 d’AMPK, ainsi qu’une forme mutée dominante négative (DN), dans des cellules PV individuelles. Nous avons montré que pendant la phase de formation synaptique (jours post-‐natals équivalents EP 10-‐18), la surexpression de la forme WT désorganise la stabilisation des synapses. De plus, l’abolition de l’activité d’AMPK semble augmenter le nombre de synapses périsomatiques faits par la cellule PV sur les cellules pyramidales pendant la phase de formation et semble avoir l’effet inverse pendant la phase de maturation (EP 16-‐24). La neurotransmission GABAergique joue plusieurs rôles dans le cerveau, depuis la naissance jusqu’à l’âge adulte des interneurones, et une dysfonction des interneurones a été associée à plusieurs troubles neurologiques, comme la schizophrénie, l’autisme et l’épilepsie. La maturation des circuits GABAergiques se fait majoritairement pendant la période post-‐natale et est hautement dépendante de l’activité neuronale et de l’expérience sensorielle. Nos résultats révèlent que le lourd fardeau en demande énergétique d’un épisode asphyxique périnatal peut causer une mort neuronale sélective des cellules PV et compromettre l’intégrité de leur maturation. Un des mécanismes sous-‐ jacents possible à cette immaturité des cellules PV suite à l’épisode hypoxique est l’activation d’AMPK, en désorganisant leur profil d’innervation sur les cellules pyramidales. Nous pensons que ces changements dans le réseau GABAergique pourrait contribuer aux problèmes neurologiques associés à une insulte hypoxique.
Resumo:
Le centromère est le site chromosomal où le kinetochore se forme, afin d’assurer une ségrégation fidèles des chromosomes et ainsi maintenir la ploïdie appropriée lors de la mitose. L’identité du centromere est héritée par un mécanisme épigénétique impliquant une variante de l’histone H3 nommée centromere protein-A (CENP-A), qui remplace l’histone H3 au niveau de la chromatine du centromère. Des erreurs de propagation de la chromatine du centromère peuvent mener à des problèmes de ségrégation des chromosomes, pouvant entraîner l’aneuploïdie, un phénomène fréquemment observé dans le cancer. De plus, une expression non-régulée de CENP-A a aussi été rapportée dans différentes tumeurs humaines. Ainsi, plusieurs études ont cherchées à élucider la structure et le rôle de la chromatine contenant CENP-A dans des cellules en prolifération. Toutefois, la nature moléculaire de CENP-A en tant que marqueur épigénétique ainsi que ces dynamiques à l'extérieur du cycle cellulaire demeurent des sujets débat. Dans cette thèse, une nouvelle méthode de comptage de molécules uniques à l'aide de la microscopie à réflexion totale interne de la fluorescence (TIRF) sera décrite, puis exploitée afin d'élucider la composition moléculaire des nucléosomes contenant CENP-A, extraits de cellules en prolifération. Nous démontrons que les nucléosomes contenant CENP-A marquent les centromères humains de façon épigénétique à travers le cycle cellulaire. De plus, nos données démontrent que la forme prénucléosomale de CENP-A, en association avec la protéine chaperon HJURP existe sous forme de monomère et de dimère, ce qui reflète une étape intermédiaire de l'assemblage de nucléosomes contenant CENP-A. Ensuite, des analyses quantitatives de centromères lors de différenciation myogénique, et dans différents tissus adultes révèlent des changements globaux qui maintiennent la marque épigénétique dans une forme inactive suite à la différentiation terminale. Ces changements incluent une réduction du nombre de points focaux de CENP-A, un réarrangement des points dans le noyau, ainsi qu'une réduction importante de la quantité de CENP-A. De plus, nous démontrons que lorsqu'une dédifférenciation cellulaire est induite puis le cycle cellulaire ré-entamé, le phénotype "différencié" décrit ci-haut est récupéré, et les centromères reprennent leur phénotype "prolifératif". En somme, cet oeuvre décrit la composition structurale sous-jacente à l'identité épigénétique des centromères de cellules humaines lors du cycle cellulaire, et met en lumière le rôle de CENP-A à l'extérieur du cycle cellulaire.
Resumo:
La plasticité synaptique activité-dépendante forme la base physiologique de l’apprentissage et de la mémoire dépendants de l’hippocampe. Le rôle joué par les différents sous-types d’interneurones dans l’apprentissage et la mémoire hippocampiques reste inconnu, mais repose probablement sur des mécanismes de la plasticité spécifique aux synapses de certains sous-types d’interneurones. Les synapses excitatrices établies sur les interneurones de l’oriens-alveus dans l’aire CA1 exhibent une forme persistante de potentialisation à long terme induite par la stimulation chimique des récepteurs métabotropiques du glutamate de type 1 (mGluR1) [mGluR1-mediated chemical late long-term potentiation (cL-LTPmGluR1)]. Le présent projet de recherche avait pour objectifs d’identifier les sous-types d’interneurones de l’oriens-alveus exprimant la cL-LTPmGluR1 et d’examiner les mécanismes d’induction et d’expression de celle-ci. Nous avons déterminé que la stimulation répétée des mGluR1 induit de la cL-LTPmGluR1 aux synapses excitatrices établies sur le sous-type d’interneurones exprimant le peptide somatostatine (SOM-INs). Des enregistrements électrophysiologiques couplés à des inhibiteurs pharmacologiques et à un knock-out fonctionnel de mammalian target of rapamycin complexe 1 (mTORC1) ont montré que l’induction de la cL-LTPmGluR1 (qui consiste en trois applications de l’agoniste des mGluR1/5, le (S)-3,5-dihydroxyphénylglycine (DHPG) en présence de l’antagoniste des récepteurs métabotropiques du glutamate de type 5 (mGluR5), le 2-méthyl-6-(phényléthynyl)-pyridine (MPEP)) des SOM-INs requiert les voies de signalisation des mGluR1, de extracellular signal-regulated protein kinase (ERK) et de mTORC1. L’ensemble de nos résultats montre qu’une forme persistante de plasticité synaptique sous-tendue par mTORC1 est induite par la stimulation répétée des mGluR1 dans les interneurones hippocampiques exprimant le peptide somatostatine. La connaissance des mécanismes sous-tendant la cL-LTPmGluR1, couplée à l’utilisation de modèles animal in vivo, rendront maintenant possible le blocage de la cL-LTPmGluR1 dans les SOM-INs et l’examen de son rôle dans l’apprentissage et la mémoire dépendants de l’hippocampe.