101 resultados para Conception de ligands


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Suite au projet de séquençage du génome d’Arabidopsis thaliana, plus de 400 récepteurs de types serine/thréonine kinases (Protein Receptor Kinase ou PRK) ont été prédits. Par contre, seulement sept paires de récepteurs/ligands ont été caractérisées jusqu’à présent par des techniques de biochimie et d’analyse, de mutants. Parmi ceux-ci figurent les PRK : BRI1, CLV1, SRK, SR160, Haesa-IDA et PEPR1 qui jouent un rôle important dans le développement, l’auto-incompatibilité sporophytique et les mécanismes de défense. Le but de mon projet de maîtrise était de développer un bioessai à haut débit qui permettra la découverte de ligands peptidiques. Le bioessai utilisera des PRK chimériques composés du domaine extracellulaire (l’ectodomaine) de la PRK à l’étude fusionnée au domaine intracellulaire d’une PRK qui agira comme rapporteur. Deux stratégies sont présentement développées dans notre laboratoire : la première consiste à fusionner la PRK à l’étude avec le domaine intracellulaire (l’endodomaine) du récepteur tyrosine kinase animal EGFR (Epidermal Growth Factor Receptor). Suite à l’interaction avec une fraction protéique contenant un ligand correspondant à la PRK étudiée, une transphosphorylation de l’endodomaine (le domaine kinase) serait détectable. La seconde stratégie utilise l’endodomaine du récepteur BRI1, un récepteur répondant aux brassinostéroïdes. Suite à l’interaction avec une fraction protéique contenant un ligand correspondant à la PRK étudiée, cette fois-ci nous devrions être en mesure de mesurer l’activation d’un gène rapporteur répondant normalement à une activation par les brassinostéroïdes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche se propose d’étudier, d’un point de vue de la problématique et de la méthodologie relative à l’ergonomie humain-machine, la manière dont les e-portfolios de présentation peuvent s’insérer dans le milieu universitaire. Un e-portfolio est généralement défini comme étant une collection d’informations qui illustre la scolarité, l’apprentissage ou la vie professionnelle d’une personne à travers une sélection de résultats marquants au cours de formations ou d’études, mais aussi qui regroupe les réflexions personnelles de l’apprenant sur son apprentissage, son parcours, la planification d’une carrière ou la construction d’un CV. Tout au long de cette étude nous avons chercher à comprendre à travers une analyse ciblée des besoins comment l’apprenant peut mettre en avant une démarche réflexive tout au long de son parcours. Il s’agit aussi de comprendre comment les e-portfolios de présentation pourraient se démarquer et offrir un véritable outil de placement aux étudiants comme aux recruteurs. Pour tenter de répondre à ces questions, nous avons procédé à des entretiens avec les recruteurs et les étudiants en vue de comprendre leurs attentes. L’ensemble des informations recueillies on permis de créer une maquette fonctionnelle sur laquelle ils ont pu interagir. Les éléments d’analyse issus de ces rencontres et des tests d’utilisabilité de l’outil nous ont permis de mettre sur pied une maquette finale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La prostaglandine E2 est une hormone lipidique produite abondamment dans le corps, incluant dans le rein où elle agit localement pour réguler les fonctions rénales. Un couplage à la protéine Gαs menant à une production d’AMPc a classiquement été attribué au récepteur EP4 de PGE2. La signalisation d’EP4 s’est cependant avérée plus complexe et implique aussi un couplage aux protéines sensibles à la PTX Gαi et des effets reliés aux β-arrestines. Il y a maintenant plusieurs exemples de l’activation sélective de voies de signalisation indépendantes par des ligands des récepteurs couplés aux protéines G (RCPG), et ce concept désigné sélectivité fonctionnelle pourrait être exploité dans le développement de nouveaux médicaments plus spécifiques et efficaces. Dans une première étude, la puissance et l’activité intrinsèque d’une série de ligands d’EP4 pour l’activation de Gαs, Gαi et de la ß-arrestine ont été systématiquement déterminées relativement au ligand endogène PGE2. Dans ce but, trois essais de transfert d’énergie de résonance de bioluminescence (BRET) ont été adaptés pour évaluer les différentes voies dans des cellules vivantes. Nos résultats montrent une sélectivité fonctionnelle importante parmi les agonistes évalués et ont une implication pour l’utilisation d’analogues de la PGE2 dans un contexte expérimental et possiblement clinique, puisque leur spectre d’activité diffère de l’agoniste naturel. La méthodologie basée sur le BRET utilisée lors de cette première évaluation systématique d’une série d’agonistes d’EP4 devrait être applicable à l’étude d’autres RCPG. Dans une deuxième étude, des peptides reproduisant des régions juxtamembranaires extracellulaires du récepteur EP4 ont été conçus selon le raisonnement que des peptides ciblant des régions éloignées du site de liaison du ligand naturel ont le potentiel de ne moduler qu’une partie des activités du récepteur. L’insuffisance rénale aiguë est une complication médicale grave caractérisée par un déclin brusque et soutenu de la fonction rénale et pour laquelle il n’y a pas de traitement efficace à l’heure actuelle. Nos résultats montrent que le peptidomimétique dérivé d’EP4 optimisé (THG213.29) améliore significativement les fonctions rénales et les changements histologiques dans une insuffisance rénale aiguë induite par cisplatine ou par occlusion des artères rénales dans des rats Sprague-Dawley. Le THG213.29 ne compétitionnait pas la liaison de la PGE2 à EP4, mais modulait la cinétique de dissociation de la PGE2, suggérant une liaison à un site allostérique d’EP4. Le THG213.29 démontrait une sélectivité fonctionnelle, puisqu’il inhibait partiellement la production d’AMPc induite par EP4 mais n’affectait pas l’activation de Gαi ou le recrutement de la ß-arrestine. Nos résultats indiquent que le THG213.29 représente une nouvelle classe d’agent diurétique possédant les propriétés d’un modulateur allostérique non-compétitif des fonctions du récepteur EP4 pour l’amélioration des fonctions rénales suite à une insuffisance rénale aiguë.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans ce texte, nous analysons la mise en place d’un système de vélos partagés à Trois-Rivières initié par un organisme faisant de la participation citoyenne son principe fondamental d’action. Cette analyse montre comment l’atteinte des objectifs poursuivis par l’adhésion à ce principe participatif, outre le respect de l’expérience du citoyen dans le développement de son milieu de vie, peut poser problème. La similarité entre le système de vélos conçu avec la participation des citoyens et les systèmes offerts par les groupes industriels met en question la capacité du principe de la participation à produire des solutions alternatives. La difficulté relèverait de la volonté de faire des méthodes participatives un principe nécessaire à la réalisation des idéaux démocratiques des sociétés libérales modernes. Promulguer l’obéissance à des procédures d’action communes, pour elles-mêmes, nous éloigne d’une conception libérale de la démocratie qui s’attache d’abord à l’efficacité de l’action, donc à la qualité de ce qu’elle produit, indépendamment des moyens mis en œuvre.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

HIV upregulates cell-surface expression of specific ligands for the activating NKG2D receptor, including ULBP-1, -2, -3, but not MICA or MICB, in infected cells both in vitro and in vivo. However, the viral factor(s) involved in NKG2D ligand expression still remains undefined. HIV-1 Vpr activates the DNA damage/stress-sensing ATR kinase and promotes G2 cell-cycle arrest, conditions known to upregulate NKG2D ligands. We report here that HIV-1 selectively induces cell-surface expression of ULBP-2 in primary CD4+ T-lymphocytes by a process that is Vpr-dependent. Importantly, Vpr enhanced the susceptibility of HIV-1-infected cells to NK cell-mediated killing. Strikingly, Vpr alone was sufficient to upregulate expression of all NKG2D ligands and thus promoted efficient NKG2D-dependent NK cell-mediated killing. Delivery of virion-associated Vpr via defective HIV-1 particles induced analogous biological effects in non-infected target cells, suggesting that Vpr may act similarly beyond infected cells. All these activities relied on Vpr ability to activate the ATR-mediated DNA damage/stress checkpoint. Overall, these results indicate that Vpr is a key determinant responsible for HIV-1-induced upregulation of NKG2D ligands and further suggest an immunomodulatory role for Vpr that may not only contribute to HIV-1-induced CD4+ T-lymphocyte depletion but may also take part in HIV-1-induced NK cell dysfunction.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Notre recherche s’intéresse à la transformation des rapports aux nombres rationnels d’élèves de 1re secondaire présentant des difficultés d’apprentissage. Comme le montrent plusieurs recherches, le défi majeur auquel sont confrontés les enseignants, ainsi que les chercheurs, est de ne pas s’enliser dans le cercle vicieux d’une réduction des enjeux de l’apprentissage des nombres rationnels et des possibilités d’apprentissage de l’élève en difficultés d’apprentissage, cet élève n’ayant pas ainsi la chance de mettre à l’épreuve ses connaissances, d’oser s’engager dans une démarche de construction de connaissances et d’apprécier les effets de son engagement cognitif. Afin de relever ce défi, nous avons misé sur l’intégration harmonieuse de situations problèmes. Il nous a semblé que, dans une démarche d’acculturation, l’approche écologique soit tout indiquée pour penser une «dé-transposition/re-transposition didactique» (Antibi et Brousseau, 2000) et reconstruire une mémoire porteuse d’espoirs (Brousseau et Centeno, 1998). Notre recherche vise à: 1) caractériser la progression des démarches d’acculturation institutionnelle de l’enseignant, du chercheur et des élèves et leurs effets sur les processus d’élaboration et de gestion des situations d’enseignement; 2) préciser l’évolution des connaissances, des habitus et des rapports des élèves aux nombres rationnels. Notre intégration en classe, d’une durée de 6 mois, nous a permis d’apprécier les effets du processus d’acculturation. Nous avons noté des changements importants dans la topogénèse et la chronogénèse des savoirs (Mercier, 1995); alors qu’à notre entrée, l’enseignante adoptait la démarche suivante, soit effectuer un exposé des savoirs et des démarches que les élèves devaient consigner dans leurs notes de cours, afin de pouvoir par la suite s’y référer pour effectuer des exercices et résoudre des problèmes, elle modifiait progressivement cette démarche en proposant des problèmes qui pouvaient permettre aux élèves de coordonner diverses connaissances et de construire ainsi des savoirs auxquels ils pouvaient faire référence dans la construction de leurs notes de cours qu’ils pouvaient par la suite consulter pour effectuer divers exercices. Nous avons également pu apprécier les effets de l’intégration de diverses représentations des nombres rationnels sur l’avancée du temps didactique (Mercier, 1995) et la transformation des rapports et habitus des élèves aux nombres rationnels (Bourdieu, 1980). Ces changements se sont manifestés, entre autres, par : a) un investissement important lors de situations complexes; b) l’adoption de pratiques mathématiques plus attentives aux données numériques et aux relations entre ces données; c) l’apparition de conduites « inusitées » [ex. coordination de divers registres sémiotiques,exploitation de compositions additives/multiplicatives et d’écritures non conventionnelles]. De telles conduites sont similaires à celles observées dans plusieurs recherches effectuées auprès d’une population d’élèves qui ne présentent pas de difficultés d’apprentissage (Moss et Case, 1999). Les résultats de notre recherche soutiennent donc l’importance indéniable de considérer les élèves en difficultés comme étant mathématiquement compétents, comme le soulignent Empson (2003) et Houssart (2002). Il nous semble enfin important de souligner que le travail sur la représentation des nombres rationnels a constitué une niche particulièrement fertile, pour un travail fondamental sur les nombres rationnels, travail qui puisse permettre aux élèves de poursuivre plus harmonieusement leurs apprentissages, les nombres rationnels étant des objets de savoir incontournables.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La conception heideggérienne du « cercle de la compréhension » exposée aux §§ 31 et 32 de Sein und Zeit est bien connue et a souvent été analysée, notamment par Hans-Georg Gadamer dans Vérité et méthode (1960) et Jean Greisch dans son commentaire de Sein und Zeit (1994). Mais on a trop peu vu que la théorie du cercle herméneutique déterminait aussi la conception heideggérienne de la philosophie. Notre recherche s’efforcera de le montrer et d’expliquer pourquoi il en est ainsi. Au plan de la méthodologie, nous proposerons, en nous inspirant des commentateurs les plus autorisés (Greisch, Gadamer, Courtine, et al.), un commentaire serré des §§ 31 et 32 de Sein und Zeit, sans oublier le § 63 où Heidegger souligne lui-même la « situation herméneutique » de sa propre enquête, ni le § 68 où se trouve mise en évidence la dimension temporelle du cercle de la compréhension. Nous tâcherons ensuite de montrer en quoi ce cercle affecte la conception heideggérienne de la philosophie telle que présentée au § 7 de Sein und Zeit et dans d’autres textes de Heidegger tels que Les problèmes fondamentaux de la phénoménologie (GA 24).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire portera sur le problème de la signification, dans la pensée de Heidegger, de la métaphysique moderne, à partir de la conception de l’histoire de l’être qu’il développe dans les années 1930. Plus précisément, nous nous baserons sur l’écrit Die Zeit des Weltbildes, que l’on retrouve dans le recueil nommé Holzwege, mais également, dans une moindre mesure, sur l’écrit Niezsches Wort « Gott ist tot » du même recueil. Nous commencerons par introduire le lecteur à l’idée qu’il se fait de la métaphysique en général dans son rapport à l’homme, et du nihilisme que constitue son histoire, lequel s’accentue à l’époque moderne. Nous rentournerons alors brièvement aux premiers commencements de la métaphysique, chez Parménide et Platon principalement, dans le but de dégager les aspects de la métaphysique moderne qui y ont trouvé leur source. C’est alors que nous entrerons dans le vif du sujet, en expliquant en quoi consiste l’inauguration de la métaphysique moderne chez Descartes qui, face à l’obligation religieuse, pose la confirmation autonome de la vérité qui trouve son lieu propre dans la conscience de soi. Il sera dès lors question de montrer précisément comment se fait cette confirmation par soi-même du vrai, au travers de certaines notions centrales de l’analyse heideggerienne : la pro-position, la présentation et la représentation, l’instauration, la production, l’obtention, la préhension et la compréhension, notamment. Nous analyserons ensuite le mouvement de la volonté du sujet qui sous-tend cette confirmation autonome du savoir jusqu’à son aboutissement chez des penseurs tels que Schopenhauer. Nous mettrons par le fait même en évidence le rapport fondamental, souligné par Heidegger, entre le sujet et son objet, l’homme moderne se soulèvant et se donnant lui-même le statut éminent de centre de référence de toute chose, rapportant à lui-même tout chose. Ce mémoire se terminera par l’analyse que fait Heidegger d’un phénomène propre à la modernité, et donc émanent de la métaphysique qui aura été examinée au préalable, soit la science moderne. Celle-ci constitue la voie privilégiée où l’homme moderne, après avoir sciemment pris position au centre du monde, peut « procéder » dans le monde comme dans son royaume, un monde qui se révèle alors comme étant essentiellement à sa disposition. La science, émanant selon Heidegger de la conception moderne de la vérité et de l’étant, se révèle alors non seulement comme une réalisation de la métaphysique qui aura été analysée dans les chapitres précédents, mais peut-être même comme le phénomène duquel Heidegger semble s’être inspiré pour développer son idée de la métaphysique moderne.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objet de ce travail de recherche est de mettre en dialogue les œuvres de Hans-Georg Gadamer et de Paul Ricœur afin de mettre au jour ce qui caractérise en propre la conception herméneutique du langage et d’en souligner la pertinence. Notre thèse principale est que, pour ce faire, il est impératif de dépasser les lectures dichotomiques des deux œuvres par une interprétation plus dialectique, puisque seule une telle démarche paraît susceptible de saisir l’étendue, la richesse et l’importance de l’intelligence herméneutique du phénomène langagier. Ainsi, dans ce travail, nous défendrons l’idée que, par-delà leurs différences incontestables, précieuses en elles-mêmes car sans elles il n’est pas de dialogue, les herméneutiques de Gadamer et Ricœur se distinguent par une réflexion philosophique incessante sur notre appartenance fondamentale au langage, qui constitue le cœur de la conception herméneutique du langage. Nous proposerons une confrontation des philosophies de Gadamer et Ricœur s’effectuant principalement autour d’une dialectique entre appartenance et distanciation, dans laquelle des approches plus objectivantes du langage pourront s’articuler à une description de notre expérience vécue. Avant de décrire cette dialectique pour elle-même, il nous est apparu indiqué de tenir compte de l’héritage phénoménologique incontournable à partir duquel Gadamer et Ricœur ont développé leurs approches respectives du langage. Cette base nous permettra de faire ressortir l’existence d’un accord de fond entre les deux herméneutiques sur la reconnaissance de notre irréductible appartenance au langage. Cette thèse n’exclut pas la possibilité, voire la nécessité d’intégrer dialectiquement un moment de distanciation au sein de cette appartenance primordiale. Nous montrerons en effet que c’est en s’appuyant sur cette distanciation que, par un mouvement réflexif, la pensée herméneutique peut revenir sur notre expérience langagière pour la thématiser et l’expliciter. Cette réflexion sur le langage s’effectue à partir de trois principaux modèles : ceux du dialogue, du texte et de la traduction. Nous exposerons comment chacun de ces modèles contribue à une meilleure compréhension de la vie du langage et de notre rapport au sens. Ceci nous conduira à examiner les efforts de Gadamer et Ricœur visant à mettre en lumière la puissance créatrice qui anime le langage, telle qu’elle ressort de leurs nombreux travaux sur la métaphore, le dire poétique et le récit. Nous défendrons alors la thèse qu’une conception originale de l’imagination s’élabore à travers la réflexion herméneutique sur l’innovation sémantique et la métaphoricité essentielle du langage. Cette recherche se terminera par une analyse des conceptions gadamérienne et ricœurienne des rapports entre langage et expérience, ainsi que de la portée ontologique du langage. Il y aura ici lieu d’insister sur la thèse partagée par les deux herméneutes selon laquelle il importe de résister à toute hypostase ou absolutisation du langage et de constamment penser le langage comme offrant une ouverture sur l’être et la possibilité de dire ce qui est.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche porte sur des questions relatives à la conception des interfaces humain-ordinateur. Elle s’inscrit dans le courant des recherches sur l’utilisabilité et elle s’intéresse particulièrement aux approches centrées sur l’utilisateur. Nous avons été très souvent témoin des difficultés éprouvées par les utilisateurs dans l’usage de certaines interfaces interactives et nous considérons que ces difficultés découlent d’un problème de design. Le design d’interface doit être basé sur les besoins de l’utilisateur dans le cadre de ses activités, dont les caractéristiques devaient être bien comprises et bien prises en considération pour mener à la conception d’interfaces qui respectent les critères d’utilisabilité. De plus, la communauté des chercheurs ainsi que l’industrie admettent maintenant que pour améliorer le design, il est crucial de développer les interfaces humain-ordinateur au sein d’une équipe multidisciplinaire. Malgré les avancées significatives dans le domaine du design centrées sur l’utilisateur, les visées annoncées sont rarement réalisées. La problématique étudiée nous a conduit à poser la question suivante : En tant que designer d’une équipe multidisciplinaire de conception, comment modifier la dynamique de collaboration et créer les conditions d’une conception véritablement centrée sur l’interaction humain-ordinateur ? Notre démarche de recherche a été guidée par l’hypothèse voulant que l’activité de design puisse être le moyen de faciliter la création d’un langage commun, des échanges constructifs entre les disciplines, et une réflexion commune centrée sur l’utilisateur. La formulation de cette hypothèse nous a mené à réfléchir sur le rôle du designer. Pour mener cette recherche, nous avons adopté une méthodologie mixte. Dans un premier temps, nous avons utilisé une approche de recherche par projet (recherche-projet) et notre fonction était celle de designer-chercheur. La recherche-projet est particulièrement appropriée pour les recherches en design. Elle privilégie les méthodes qualitatives et interprétatives ; elle étudie la situation dans sa complexité et de façon engagée. Nous avons effectué trois études de cas successives. L’objectif de la première étude était d’observer notre propre rôle et nos interactions avec les autres membres de l’équipe de projet pendant le processus de design. Dans la seconde étude, notre attention a été portée sur les interactions et la collaboration de l’équipe. Nous avons utilisé le processus de design comme méthode pour la construction d’un langage commun entre les intervenants, pour enrichir les réflexions et pour favoriser leur collaboration menant à redéfinir les objectifs du projet. Les limites de ces deux cas nous ont conduit à une intervention différente que nous avons mise en œuvre dans la troisième étude de cas. Cette intervention est constituée par la mise en place d’un atelier intensif de conception où les intervenants au projet se sont engagés à développer une attitude interdisciplinaire permettant la copratique réflexive pour atteindre les objectifs d’un projet de construction d’un site web complexe centré sur l’utilisateur. L’analyse et l’interprétation des données collectées de ces trois études de cas nous ont conduit à créer un modèle théorique de conception d’interface humain-ordinateur. Ce modèle qui informe et structure le processus de design impliquant une équipe multidisciplinaire a pour objectif d’améliorer l’approche centrée sur l’utilisateur. Dans le cadre de ce modèle, le designer endosse le rôle de médiateur en assurant l’efficacité de la collaboration de l’équipe. Dans un deuxième temps, afin de valider le modèle et éventuellement le perfectionner, nous avons utilisé une approche ethnographique comportant des entrevues avec trois experts dans le domaine. Les données des entrevues confirment la validité du modèle ainsi que son potentiel de transférabilité à d’autres contextes. L’application de ce modèle de conception permet d’obtenir des résultats plus performants, plus durables, et dans un délai plus court.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les biocapteurs sont utilisés quotidiennement pour déterminer la présence de molécules biologiques dans une matrice complexe, comme l’urine pour les tests de grossesses ou le sang pour les glucomètres. Les techniques courantes pour la détection des autres maladies nécessitent fréquemment le marquage de l’analyte avec une autre molécule, ce qui est à éviter pour fin de simplicité d’analyse. Ces travaux ont pour but la maximisation de la sensibilité d’une surface d’or ou d’argent nanotrouée, afin de permettre la détection de la liaison de molécules biologiques par résonance des plasmons de surface localisés (LSPR), en utilisant la spectroscopie de transmission. Un biocapteur portable, rapide et sans marquage pour quantifier des analytes d’intérêt médical ou environnemental pourrait être construit à partir de ces travaux. Dans l’objectif d’étudier de nombreuses configurations pour maximiser la sensibilité, le temps et le coût des méthodes de fabrication de nanostructures habituelles auraient limité le nombre de surfaces nanotrouées pouvant être étudiées. Un autre objectif du projet consiste donc au développement d’une technique de fabrication rapide de réseaux de nanotrous, et à moindres coûts, basée sur la lithographie de nanosphères (NSL) et sur la gravure au plasma à l’oxygène (RIE). La sensibilité à la variation d’indice de réfraction associée aux liaisons de molécules sur la surface du métal noble et la longueur d’onde d’excitation du plasmon de surface sont influencées par les caractéristiques des réseaux de nanotrous. Dans les travaux rapportés ici, la nature du métal utilisé, le diamètre ainsi que la périodicité des trous sont variés pour étudier leur influence sur les bandes LSPR du spectre en transmission pour maximiser cette sensibilité, visant la fabrication d’un biocapteur. Les surfaces d’argent, ayant un diamètre de nanotrous inférieur à 200 nm pour une périodicité de 450 nm et les nanotrous d’une périodicité de 650 nm démontre un potentiel de sensibilité supérieur.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire propose une conception naturaliste et normative de l'axiologie scientifique contemporaine, c'est-à-dire des buts de la science et des scientifiques. Nous commençons par présenter le naturalisme en philosophie des sciences, en particulier ses dimensions scientifique, méthodologique et ontologique. Nous discutons le sophisme naturaliste et l'objection de la normativité souvent adressée aux approches naturalistes, principalement à travers le prisme de l'épistémologie naturalisée de Quine (1969). Nous illustrons ensuite ces thèmes - naturalisme, normativité, et axiologie scientifique - au moyen de la théorie de Laudan (1987), qui articule un début de théorie axiologique de la science qui se veut naturaliste et normative. Nous soulignons le caractère insatisfaisant de sa théorie, et proposons une conception plus riche et plus détaillée de l'axiologie scientifique. Nous analysons pour ce faire différents liens entre la science, l'industrie, le gouvernement et la société. Nous dégageons en particulier une tendance axiologique pragmatique de la science contemporaine. Finalement, nous ébauchons un cadre normatif instrumental inspiré de Laudan (1987)pour réfléchir sur l'axiologie scientifique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La politique québécoise de l’adaptation scolaire confirme que le plan d’intervention (PI) constitue l’outil privilégié pour répondre aux besoins des élèves handicapés ou en difficulté d’adaptation ou d’apprentissage. Toutefois, la recension des écrits nous informe que le plan d’intervention est encore loin d’être efficace. Le Ministère de l’Éducation, des Loisirs et des Sports du Québec (MELS, 2004) ainsi que l’Office of Special Education and Rehabilitative Services des U.S. department of Education (dans Eichler, 1999) ont bien identifié et présenté explicitement cinq à six fonctions du PI mais, aucun des deux organismes ne définit ce qu’est une fonction, à quoi elle sert, son importance relative et ce qu’elle implique. De plus, on retrouve, explicitement ou implicitement, soit dans le cadre de référence pour l’établissement des PI (MELS, 2004), soit dans la revue de la littérature, soit dans les milieux de pratique plusieurs autres fonctions que le PI remplit ou devrait remplir. Ce flou entourant le concept de fonction entraîne un manque de rigueur dans la conception des PI, car « lorsque la totalité des fonctions a été identifiée, elle permet le développement d’un produit répondant à l’usage attendu » (Langevin et coll., 1998). Il y a d’emblée une somme de fonctions qu’un PI remplit déjà et d’autres sûrement à remplir. Or, cela n’a pas été élucidé, précisé et validé. Le but de la présente recherche a été de définir les rôles du PI au regard des besoins de ses différents utilisateurs. Les objectifs spécifiques ont été les suivants, 1) Identifier les différents utilisateurs d’un PI, 2) Identifier les besoins des différents utilisateurs d’un PI, 3) Identifier les fonctions qu’un PI doit remplir afin de satisfaire les besoins de ses utilisateurs, 4) Créer un cahier des charges fonctionnel pour la conception et l’évaluation d’un PI, 5) Identifier certains coûts reliés à la conception d’un PI. Afin d’atteindre les objectifs précités, nous avons eu recours à la méthode de l’analyse de la valeur pédagogique (AVP) (Langevin, Rocque et Riopel, 2008). La méthode d’AVP comportait une analyse des besoins des différents utilisateurs potentiels, une analyse de la recension des écrits, une analyse des encadrements légaux, une analyse de produits types et une analyse écosystémique. En conclusion, nous avons identifié les différents utilisateurs potentiels d’un PI, identifié les différents besoins de ces utilisateurs, identifié les fonctions qu’un PI doit remplir pour satisfaire leurs besoins, crée un cahier des charges fonctionnel (CdCF) pour la conception et l’évaluation des PI et identifié certains coûts liés à la conception d’un PI. Le CdCF pourra servir à concevoir des PI et à évaluer leur efficience. Une partie du CdCF pourra aussi remplir un rôle prescriptif pour la conception d’outil de soutien à l’élaboration du PI. Enfin, le CdCF pourra servir à la formation et à la recherche en éducation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le domaine des énergies est au cœur des préoccupations technologiques, politiques et économiques de notre société moderne. Ce domaine nécessite une compréhension minimale du concept scientifique de l’énergie. Elle est selon nous essentielle à toute formation citoyenne. Nous avons dans un premier temps, à partir de considérations théoriques et pratiques, examiné pourquoi ce domaine si important dans notre société technologique est si peu abordé dans le cursus scolaire québécois? Pourquoi se contente-t-on d’un enseignement théorique et discursif de ce concept? Pourquoi, au contraire de tout enseignement scientifique, n’a-t-on pas envisagé de situations d’apprentissages en laboratoire pour l’étude des énergies? Dans un deuxième temps, nous avons proposé une idée de solution concrète et réaliste pour répondre à l’ensemble de ces questions. Une solution qui invite les élèves à s’investir de manière constructive dans des activités de laboratoire afin de s’approprier ces concepts. Pour ce faire, nous avons conçu des variables globales énergies qui ont permis aux élèves de les mesurer et d’expérimenter facilement des transformations énergétiques. Cette recherche de développement technologique en éducation consiste donc à profiter des nouveaux développements technologiques de l’informatique et de la micro-électronique pour concevoir, réaliser et mettre à l’essai un environnement informatisé d’apprentissage en laboratoire pour les sciences et la technologie. Par ce que l’énergie est au confluent de trois domaines, cet environnement a été conçu pour supporter dans une même activité l’apprentissage des mathématiques, des sciences et de la technologie. Cette intégration recommandée par les nouveaux programmes est, selon nous, essentielle à la compréhension des concepts liés à l’énergie et à ses transformations. Par cette activité d’apprentissage multidisciplinaire, nous voulons, via une approche empirique et concrète, aborder ces problèmes de transformations énergétiques afin de donner aux élèves la capacité de perfectionner les prototypes qu’ils construisent en technologie de manière à améliorer leurs performances. Nous avons montré que cette démarche technoscientifique, assimilable à la conception d’un schème expérimental en sciences, favorise la compréhension des concepts liés aux énergies et à leurs transformations. Ce développement, ouvert à l’investigation scientifique, apporte un bénéfice didactique, non seulement, pour des enseignants en exercices et des étudiants-maîtres, mais aussi pour des élèves de 5ème année du niveau secondaire, ce que nous avons démontré dans une mise à l’essai empirique.