975 resultados para Conception. Landscape. Geography teaching


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire s’inscrit dans le cadre d’une recherche de développement pédagogique d’objet, destinée à des enseignants du secondaire. L’objectif porte sur la conception, et la validation auprès d’un groupe d’experts, d’une grille visant l’analyse de la qualité de situations d’apprentissage et d’évaluation en lecture (GASAEL) conçues pour des élèves de niveau secondaire en difficulté d’apprentissage, notamment ceux du parcours de formation axée sur l’emploi (PFAE). La problématique expose la nécessité chez les enseignants de trouver des réponses ajustées aux besoins d’apprentissage des élèves ciblés, dans un contexte de programmes élaborés par compétences. La situation d’apprentissage et d’évaluation (SAE) est une instrumentation pertinente, mais demeure sous-utilisée. Le cadre conceptuel, guidé par le modèle de la situation pédagogique de Legendre (2005), assure l’analyse du contexte de la SAE et permet d’identifier ses caractéristiques. Ce cadre est suivi par la méthodologie de l’Analyse de la valeur pédagogique de Roque, Langevin et Riopel (1998) exposant la procédure d’analyse des fonctions du produit, au regard des besoins des utilisateurs. L’innovation de ce produit pédagogique tient en son caractère pragmatique; il propose à la fois l’analyse de la qualité des SAE, et une référence rapide à propos des concepts porteurs d’une SAE, fournis par des exemples ou des explications.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objet de ce travail de recherche est de mettre en dialogue les œuvres de Hans-Georg Gadamer et de Paul Ricœur afin de mettre au jour ce qui caractérise en propre la conception herméneutique du langage et d’en souligner la pertinence. Notre thèse principale est que, pour ce faire, il est impératif de dépasser les lectures dichotomiques des deux œuvres par une interprétation plus dialectique, puisque seule une telle démarche paraît susceptible de saisir l’étendue, la richesse et l’importance de l’intelligence herméneutique du phénomène langagier. Ainsi, dans ce travail, nous défendrons l’idée que, par-delà leurs différences incontestables, précieuses en elles-mêmes car sans elles il n’est pas de dialogue, les herméneutiques de Gadamer et Ricœur se distinguent par une réflexion philosophique incessante sur notre appartenance fondamentale au langage, qui constitue le cœur de la conception herméneutique du langage. Nous proposerons une confrontation des philosophies de Gadamer et Ricœur s’effectuant principalement autour d’une dialectique entre appartenance et distanciation, dans laquelle des approches plus objectivantes du langage pourront s’articuler à une description de notre expérience vécue. Avant de décrire cette dialectique pour elle-même, il nous est apparu indiqué de tenir compte de l’héritage phénoménologique incontournable à partir duquel Gadamer et Ricœur ont développé leurs approches respectives du langage. Cette base nous permettra de faire ressortir l’existence d’un accord de fond entre les deux herméneutiques sur la reconnaissance de notre irréductible appartenance au langage. Cette thèse n’exclut pas la possibilité, voire la nécessité d’intégrer dialectiquement un moment de distanciation au sein de cette appartenance primordiale. Nous montrerons en effet que c’est en s’appuyant sur cette distanciation que, par un mouvement réflexif, la pensée herméneutique peut revenir sur notre expérience langagière pour la thématiser et l’expliciter. Cette réflexion sur le langage s’effectue à partir de trois principaux modèles : ceux du dialogue, du texte et de la traduction. Nous exposerons comment chacun de ces modèles contribue à une meilleure compréhension de la vie du langage et de notre rapport au sens. Ceci nous conduira à examiner les efforts de Gadamer et Ricœur visant à mettre en lumière la puissance créatrice qui anime le langage, telle qu’elle ressort de leurs nombreux travaux sur la métaphore, le dire poétique et le récit. Nous défendrons alors la thèse qu’une conception originale de l’imagination s’élabore à travers la réflexion herméneutique sur l’innovation sémantique et la métaphoricité essentielle du langage. Cette recherche se terminera par une analyse des conceptions gadamérienne et ricœurienne des rapports entre langage et expérience, ainsi que de la portée ontologique du langage. Il y aura ici lieu d’insister sur la thèse partagée par les deux herméneutes selon laquelle il importe de résister à toute hypostase ou absolutisation du langage et de constamment penser le langage comme offrant une ouverture sur l’être et la possibilité de dire ce qui est.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche porte sur des questions relatives à la conception des interfaces humain-ordinateur. Elle s’inscrit dans le courant des recherches sur l’utilisabilité et elle s’intéresse particulièrement aux approches centrées sur l’utilisateur. Nous avons été très souvent témoin des difficultés éprouvées par les utilisateurs dans l’usage de certaines interfaces interactives et nous considérons que ces difficultés découlent d’un problème de design. Le design d’interface doit être basé sur les besoins de l’utilisateur dans le cadre de ses activités, dont les caractéristiques devaient être bien comprises et bien prises en considération pour mener à la conception d’interfaces qui respectent les critères d’utilisabilité. De plus, la communauté des chercheurs ainsi que l’industrie admettent maintenant que pour améliorer le design, il est crucial de développer les interfaces humain-ordinateur au sein d’une équipe multidisciplinaire. Malgré les avancées significatives dans le domaine du design centrées sur l’utilisateur, les visées annoncées sont rarement réalisées. La problématique étudiée nous a conduit à poser la question suivante : En tant que designer d’une équipe multidisciplinaire de conception, comment modifier la dynamique de collaboration et créer les conditions d’une conception véritablement centrée sur l’interaction humain-ordinateur ? Notre démarche de recherche a été guidée par l’hypothèse voulant que l’activité de design puisse être le moyen de faciliter la création d’un langage commun, des échanges constructifs entre les disciplines, et une réflexion commune centrée sur l’utilisateur. La formulation de cette hypothèse nous a mené à réfléchir sur le rôle du designer. Pour mener cette recherche, nous avons adopté une méthodologie mixte. Dans un premier temps, nous avons utilisé une approche de recherche par projet (recherche-projet) et notre fonction était celle de designer-chercheur. La recherche-projet est particulièrement appropriée pour les recherches en design. Elle privilégie les méthodes qualitatives et interprétatives ; elle étudie la situation dans sa complexité et de façon engagée. Nous avons effectué trois études de cas successives. L’objectif de la première étude était d’observer notre propre rôle et nos interactions avec les autres membres de l’équipe de projet pendant le processus de design. Dans la seconde étude, notre attention a été portée sur les interactions et la collaboration de l’équipe. Nous avons utilisé le processus de design comme méthode pour la construction d’un langage commun entre les intervenants, pour enrichir les réflexions et pour favoriser leur collaboration menant à redéfinir les objectifs du projet. Les limites de ces deux cas nous ont conduit à une intervention différente que nous avons mise en œuvre dans la troisième étude de cas. Cette intervention est constituée par la mise en place d’un atelier intensif de conception où les intervenants au projet se sont engagés à développer une attitude interdisciplinaire permettant la copratique réflexive pour atteindre les objectifs d’un projet de construction d’un site web complexe centré sur l’utilisateur. L’analyse et l’interprétation des données collectées de ces trois études de cas nous ont conduit à créer un modèle théorique de conception d’interface humain-ordinateur. Ce modèle qui informe et structure le processus de design impliquant une équipe multidisciplinaire a pour objectif d’améliorer l’approche centrée sur l’utilisateur. Dans le cadre de ce modèle, le designer endosse le rôle de médiateur en assurant l’efficacité de la collaboration de l’équipe. Dans un deuxième temps, afin de valider le modèle et éventuellement le perfectionner, nous avons utilisé une approche ethnographique comportant des entrevues avec trois experts dans le domaine. Les données des entrevues confirment la validité du modèle ainsi que son potentiel de transférabilité à d’autres contextes. L’application de ce modèle de conception permet d’obtenir des résultats plus performants, plus durables, et dans un délai plus court.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les biocapteurs sont utilisés quotidiennement pour déterminer la présence de molécules biologiques dans une matrice complexe, comme l’urine pour les tests de grossesses ou le sang pour les glucomètres. Les techniques courantes pour la détection des autres maladies nécessitent fréquemment le marquage de l’analyte avec une autre molécule, ce qui est à éviter pour fin de simplicité d’analyse. Ces travaux ont pour but la maximisation de la sensibilité d’une surface d’or ou d’argent nanotrouée, afin de permettre la détection de la liaison de molécules biologiques par résonance des plasmons de surface localisés (LSPR), en utilisant la spectroscopie de transmission. Un biocapteur portable, rapide et sans marquage pour quantifier des analytes d’intérêt médical ou environnemental pourrait être construit à partir de ces travaux. Dans l’objectif d’étudier de nombreuses configurations pour maximiser la sensibilité, le temps et le coût des méthodes de fabrication de nanostructures habituelles auraient limité le nombre de surfaces nanotrouées pouvant être étudiées. Un autre objectif du projet consiste donc au développement d’une technique de fabrication rapide de réseaux de nanotrous, et à moindres coûts, basée sur la lithographie de nanosphères (NSL) et sur la gravure au plasma à l’oxygène (RIE). La sensibilité à la variation d’indice de réfraction associée aux liaisons de molécules sur la surface du métal noble et la longueur d’onde d’excitation du plasmon de surface sont influencées par les caractéristiques des réseaux de nanotrous. Dans les travaux rapportés ici, la nature du métal utilisé, le diamètre ainsi que la périodicité des trous sont variés pour étudier leur influence sur les bandes LSPR du spectre en transmission pour maximiser cette sensibilité, visant la fabrication d’un biocapteur. Les surfaces d’argent, ayant un diamètre de nanotrous inférieur à 200 nm pour une périodicité de 450 nm et les nanotrous d’une périodicité de 650 nm démontre un potentiel de sensibilité supérieur.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La réalisation des objectifs d’Éducation pour tous en Haïti requiert impérativement, entre autres, une campagne massive et accélérée de formation d’enseignants - formation à la fois initiale et en cours d’emploi. Malheureusement, les structures actuelles sont loin d’être en mesure de répondre à cette demande. Il faudra donc recourir à d’autres modalités de formation, particulièrement celles utilisant les TIC (technologies de l’information et de la communication). Cependant, dans ce domaine, il est fort tentant de continuer à copier ce qui se fait en France, au Canada ou aux États-Unis, et d’allonger ainsi la liste d’échecs dus à une adaptation déficiente ou inexistante. Dans un souci de maximiser les chances de succès, il est important d’examiner l’adéquation des stratégies adoptées au contexte et à l’apprenant haïtiens. Cette recherche étudie les caractéristiques des enseignants haïtiens des deux premiers cycles de l’enseignement fondamental (primaire) en tant qu’apprenants, caractéristiques susceptibles de constituer des barrières ou des facteurs facilitants internes à une intégration efficace des TIC dans leur formation. Dans une première phase quantitative, une enquête a été administrée en 2009-2010 à 176 enseignants. L’analyse des données recueillies a permis de faire ressortir trois tendances fortes : une attitude positive par rapport aux innovations et aux TIC, des sources intrinsèques de motivation et une forte distance hiérarchique ; il faut aussi signaler deux autres résultats importants : le peu de familiarité avec l’ordinateur et l’adoption massive du cellulaire ; les réponses étaient plus partagées au niveau de la conception de l’enseignement et de l’apprentissage et de la dimension individualisme-collectivisme. Une analyse factorielle a fait émerger quatre facteurs : la capacité d’utiliser les TIC, le désir de changement, la conception du rôle du formateur et la distance hiérarchique. Suite à cette enquête, une phase qualitative comportant sept entrevues individuelles avec des spécialistes de la formation des enseignants en Haïti et trois groupes de discussion avec des enseignants du fondamental a été effectuée à la fin de 2010. Cette phase avait pour but d’enrichir, de compléter, d’expliquer, de confirmer et d’illustrer les résultats quantitatifs. Malgré leur regard plus sévère, les spécialistes en formation des enseignants ont largement contribué à l’interprétation des résultats, particulièrement ceux concernant l’attitude par rapport aux innovations et aux TIC, la dimension individualisme-collectivisme et la conception de l’enseignement et de l’apprentissage. Quant aux participants aux groupes de discussion, ils ont globalement appuyé les résultats de la phase quantitative, mais en expliquant et en nuançant certains aspects. Ils ont particulièrement renforcé l’importance de deux facteurs qui ne figuraient pas dans la liste initiale et qui ont émergé de l’analyse factorielle : le désir de changement et la conception du rôle du formateur. Ils ont également apporté des éclaircissements fort pertinents sur la distance hiérarchique. .

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire propose une conception naturaliste et normative de l'axiologie scientifique contemporaine, c'est-à-dire des buts de la science et des scientifiques. Nous commençons par présenter le naturalisme en philosophie des sciences, en particulier ses dimensions scientifique, méthodologique et ontologique. Nous discutons le sophisme naturaliste et l'objection de la normativité souvent adressée aux approches naturalistes, principalement à travers le prisme de l'épistémologie naturalisée de Quine (1969). Nous illustrons ensuite ces thèmes - naturalisme, normativité, et axiologie scientifique - au moyen de la théorie de Laudan (1987), qui articule un début de théorie axiologique de la science qui se veut naturaliste et normative. Nous soulignons le caractère insatisfaisant de sa théorie, et proposons une conception plus riche et plus détaillée de l'axiologie scientifique. Nous analysons pour ce faire différents liens entre la science, l'industrie, le gouvernement et la société. Nous dégageons en particulier une tendance axiologique pragmatique de la science contemporaine. Finalement, nous ébauchons un cadre normatif instrumental inspiré de Laudan (1987)pour réfléchir sur l'axiologie scientifique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Au moment où les territoires périurbains se transforment rapidement sous l’impulsion des stratégies de développement de l’industrie immobilière, les préoccupations sociales en matière de qualité des paysages et des cadres de vie se font de plus en plus grandes. Devant ces enjeux, les actions aménagistes privilégient le plus souvent des solutions à partir d’un regard « expert » généralement étranger aux demandes sociales en présence. Devant l’insuffisance des connaissances des regards citoyens, il y a une urgence à développer des méthodes originales aptes à révéler ce savoir local. Une enquête menée à l’automne 2009 à Saint-Bruno-de-Montarville, sur la Rive-Sud de Montréal, révèle la pertinence d’une approche anthropologique sous-utilisée et novatrice en particulier pour les recherches en aménagement : celle du « récit-parcours ». Permettant un accès privilégié aux récits ancrés aux lieux de vies, cette méthode a permis de susciter des discours singuliers et collectifs sur le territoire, de révéler des propos sur les imaginaires portés sur la ville et d’offrir un espace d’expression des préoccupations, des valorisations et des aspirations des résidants. Les résultats de l’enquête à cet effet sont concluants : ce que nous révèlent les résidants de par leurs expériences vécues des lieux et leurs cheminements spatiaux est incontestablement riche et pertinent pour la compréhension des enjeux collectifs d’un milieu. Les logiques existantes derrière les transformations de ces territoires bénéficieraient grandement de ce savoir localisé, complexe et ingénieux dont dispose les résidants de la géographie, de l’environnement, de l’urbanisation et des caractéristiques sociales de leur ville. Ce faisant, le territoire change alors de statut : d’un objet d’évaluation experte, il devient une mise en scène dynamique où s’inscrivent des fragments significatifs d’histoires faisant référence à l’expérience du vécu quotidien, mais aussi, à la potentialité des lieux. Par le biais d’une telle démarche et en conjonction avec des méthodes participatives, il devient possible d’engager une véritable réflexion plurielle envers l’avenir des territoires périurbains, en résonance avec les aspirations locales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La politique québécoise de l’adaptation scolaire confirme que le plan d’intervention (PI) constitue l’outil privilégié pour répondre aux besoins des élèves handicapés ou en difficulté d’adaptation ou d’apprentissage. Toutefois, la recension des écrits nous informe que le plan d’intervention est encore loin d’être efficace. Le Ministère de l’Éducation, des Loisirs et des Sports du Québec (MELS, 2004) ainsi que l’Office of Special Education and Rehabilitative Services des U.S. department of Education (dans Eichler, 1999) ont bien identifié et présenté explicitement cinq à six fonctions du PI mais, aucun des deux organismes ne définit ce qu’est une fonction, à quoi elle sert, son importance relative et ce qu’elle implique. De plus, on retrouve, explicitement ou implicitement, soit dans le cadre de référence pour l’établissement des PI (MELS, 2004), soit dans la revue de la littérature, soit dans les milieux de pratique plusieurs autres fonctions que le PI remplit ou devrait remplir. Ce flou entourant le concept de fonction entraîne un manque de rigueur dans la conception des PI, car « lorsque la totalité des fonctions a été identifiée, elle permet le développement d’un produit répondant à l’usage attendu » (Langevin et coll., 1998). Il y a d’emblée une somme de fonctions qu’un PI remplit déjà et d’autres sûrement à remplir. Or, cela n’a pas été élucidé, précisé et validé. Le but de la présente recherche a été de définir les rôles du PI au regard des besoins de ses différents utilisateurs. Les objectifs spécifiques ont été les suivants, 1) Identifier les différents utilisateurs d’un PI, 2) Identifier les besoins des différents utilisateurs d’un PI, 3) Identifier les fonctions qu’un PI doit remplir afin de satisfaire les besoins de ses utilisateurs, 4) Créer un cahier des charges fonctionnel pour la conception et l’évaluation d’un PI, 5) Identifier certains coûts reliés à la conception d’un PI. Afin d’atteindre les objectifs précités, nous avons eu recours à la méthode de l’analyse de la valeur pédagogique (AVP) (Langevin, Rocque et Riopel, 2008). La méthode d’AVP comportait une analyse des besoins des différents utilisateurs potentiels, une analyse de la recension des écrits, une analyse des encadrements légaux, une analyse de produits types et une analyse écosystémique. En conclusion, nous avons identifié les différents utilisateurs potentiels d’un PI, identifié les différents besoins de ces utilisateurs, identifié les fonctions qu’un PI doit remplir pour satisfaire leurs besoins, crée un cahier des charges fonctionnel (CdCF) pour la conception et l’évaluation des PI et identifié certains coûts liés à la conception d’un PI. Le CdCF pourra servir à concevoir des PI et à évaluer leur efficience. Une partie du CdCF pourra aussi remplir un rôle prescriptif pour la conception d’outil de soutien à l’élaboration du PI. Enfin, le CdCF pourra servir à la formation et à la recherche en éducation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le domaine des énergies est au cœur des préoccupations technologiques, politiques et économiques de notre société moderne. Ce domaine nécessite une compréhension minimale du concept scientifique de l’énergie. Elle est selon nous essentielle à toute formation citoyenne. Nous avons dans un premier temps, à partir de considérations théoriques et pratiques, examiné pourquoi ce domaine si important dans notre société technologique est si peu abordé dans le cursus scolaire québécois? Pourquoi se contente-t-on d’un enseignement théorique et discursif de ce concept? Pourquoi, au contraire de tout enseignement scientifique, n’a-t-on pas envisagé de situations d’apprentissages en laboratoire pour l’étude des énergies? Dans un deuxième temps, nous avons proposé une idée de solution concrète et réaliste pour répondre à l’ensemble de ces questions. Une solution qui invite les élèves à s’investir de manière constructive dans des activités de laboratoire afin de s’approprier ces concepts. Pour ce faire, nous avons conçu des variables globales énergies qui ont permis aux élèves de les mesurer et d’expérimenter facilement des transformations énergétiques. Cette recherche de développement technologique en éducation consiste donc à profiter des nouveaux développements technologiques de l’informatique et de la micro-électronique pour concevoir, réaliser et mettre à l’essai un environnement informatisé d’apprentissage en laboratoire pour les sciences et la technologie. Par ce que l’énergie est au confluent de trois domaines, cet environnement a été conçu pour supporter dans une même activité l’apprentissage des mathématiques, des sciences et de la technologie. Cette intégration recommandée par les nouveaux programmes est, selon nous, essentielle à la compréhension des concepts liés à l’énergie et à ses transformations. Par cette activité d’apprentissage multidisciplinaire, nous voulons, via une approche empirique et concrète, aborder ces problèmes de transformations énergétiques afin de donner aux élèves la capacité de perfectionner les prototypes qu’ils construisent en technologie de manière à améliorer leurs performances. Nous avons montré que cette démarche technoscientifique, assimilable à la conception d’un schème expérimental en sciences, favorise la compréhension des concepts liés aux énergies et à leurs transformations. Ce développement, ouvert à l’investigation scientifique, apporte un bénéfice didactique, non seulement, pour des enseignants en exercices et des étudiants-maîtres, mais aussi pour des élèves de 5ème année du niveau secondaire, ce que nous avons démontré dans une mise à l’essai empirique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La conception architecturale du logis, individuel ou collectif, est un défi majeur pour les architectes depuis l'avènement de la modernité. Au début du 21ième siècle, la multiplicité des conditions démographiques et celle de la mobilité des personnes sous-tendent la complexité de l'élaboration de prototypes ou de modèles d'habitation. Que peut-on apprendre des expériences menées dans ce domaine après la seconde guerre mondiale aux États-Unis ? Ce mémoire de maîtrise est consacré à l'étude d’un cas particulier celui du programme de création architecturale réalisée en Californie de 1945 à 1966, connu sous le nom de : «Case Study House Program». Ce programme, dirigé par John Entenza, éditeur de la revue Arts and Architecture, rassemblait de nombreux architectes dont les plus célèbres sont Charles et Ray Eames, Richard Neutra, Craig Ellwood et Pierre Koenig, tous auteurs de maisons modernes devenues oeuvres canoniques dans l’histoire de l’architecture. L'analyse détaillé de ce cas et de ses retombées devrait permettre de mieux cerner les aspects suivants: la portée critique du CSHP (case study house program) qui s'opposait aux modèles dominants du marché immobilier, modèles généralement inspirés de styles traditionnels; le potentiel et les limites d'une telle démarche face à la demande sociale; la dimension anticipatrice des propositions du CSHP pour la conception de logis mieux adaptés aux besoins du 21ième siècle, en particulier ceux qui découlent des changements démographiques et de la mobilité géographiques des personnes; la valeur d'exemple du CSHP pour mieux comprendre les fondements de la résistance du public aux innovations architecturales, autant du point de vue technique que du point de vue esthétique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La différentiation entre le « soi » et le « non-soi » est un processus biologique essentiel à la vie. Les peptides endogènes présentés par les complexes majeurs d’histocompatibilité de classe I (CMH I) représentent le fondement du « soi » pour les lymphocytes T CD8+. On donne le nom d’immunopeptidome à l’ensemble des peptides présentés à la surface cellulaire par les molécules du CMH I. Nos connaissances concernant l’origine, la composition et la plasticité de l’immunopeptidome restent très limitées. Dans le cadre de cette thèse, nous avons développé une nouvelle approche par spectrométrie de masse permettant de définir avec précision : la nature et l’abondance relative de l’ensemble des peptides composant l’immunopeptidome. Nous avons trouvé que l’immunopeptidome, et par conséquent la nature du « soi » immun, est surreprésenté en peptides provenant de transcrits fortement abondants en plus de dissimuler une signature tissu-spécifique. Nous avons par la suite démontré que l’immunopeptidome est plastique et modulé par l’activité métabolique de la cellule. Nous avons en effet constaté que les modifications du métabolisme cellulaire par l’inhibition de mTOR (de l’anglais mammalian Target Of Rapamycin) provoquent des changements dynamiques dans la composition de l’immunopeptidome. Nous fournissons également la première preuve dans l’étude des systèmes que l’immunopeptidome communique à la surface cellulaire l’activité de certains réseaux biochimiques ainsi que de multiples événements métaboliques régulés à plusieurs niveaux à l’intérieur de la cellule. Nos découvertes ouvrent de nouveaux horizons dans les domaines de la biologie des systèmes et de l’immunologie. En effet, notre travail de recherche suggère que la composition de l’immunopeptidome est modulée dans l’espace et le temps. Il est par conséquent très important de poursuivre le développement de méthodes quantitatives au niveau des systèmes qui nous permettront de modéliser la plasticité de l’immunopeptidome. La simulation et la prédiction des variations dans l’immunopeptidome en réponse à différents facteurs cellulaires intrinsèques et extrinsèques seraient hautement pertinentes pour la conception de traitements immunothérapeutiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif de notre travail est de développer un outil d’analyse automatique des stades du sommeil basé sur les réseaux de neurones artificiels (RNA). Dans ce papier nous présentons notre démarche pour la conception de cet outil. La première difficulté consiste dans le choix de la représentation des signaux physiologiques et en particulier de l’électroencéphalogramme (EEG). Une fois la représentation adoptée, l’étape suivante est la conception du réseau de neurones optimal déterminé par un processus d’apprentissage et de validation sur les données issues d’un ensemble d'enregistrements de nuits de sommeil. Le résultat obtenu avec un taux de 63% de bonne classification pour six stades, nous incite à approfondir l’étude de cette problématique aux niveaux représentation et conception pour améliorer les performances de notre outil.