109 resultados para Modernes
em Université de Montréal, Canada
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
La présente recherche traite des conflits d’aménagement pouvant être décelés dans les cuisines domiciliaires modernes. L’ajout d’objets mécanisés au rituel alimentaire quotidien a su changer la dynamique du lieu. En effet, l’architecture des cuisines modernes en Occident présente de grandes contradictions. Basées sur des standards architecturaux, les cuisines modulaires ne reflètent pas la variété et l’unicité des aliments auxquels les cuisines sont dédiées. Les cuisines devraient être le miroir de la vivacité naturelle des aliments et des échanges humains que la nourriture génère à travers le plaisir et le partage. Dans l’espoir de proposer des outils afin de rééquilibrer la dynamique de cette pièce, un cadre théorique basé sur les théories architecturales de l’architecte et mathématicien anglais Christopher Alexander a été établi. Supportant la présente recherche, ces théories architecturales s’inspirent de la structure et de la composition des choses de la nature et des monuments anciens afin d’établir des balises d’aménagement simples et équilibrées (qualité de vie, patterns, configuration des événements, configurations de l’espace, ...). Ces théories ont aidé à concevoir une formule d’ateliers participatifs qui visent à outiller les occupants, qui sont très souvent des non-professionnels du domaine de l’architecture et du design. Ces ateliers proposent un cheminement bien encadré qui permet aux participants de retravailler leur espace de cuisine respectif selon leurs goûts et leurs besoins. En fournissant un plan de l’étage où se situe la cuisine, quelques crayons, règles et autres matériel de dessin, les participants ont pour tâche de réaménager leur cuisine en un espace de cuisine idéal. La deuxième étape, qui elle se réalise en équipe avec tous les occupants participants de la demeure, consiste à réduire l’ampleur des changements afin d’arriver à un résultat réaliste. L’enthousiasme noté tout au long de ce processus a ainsi permis de confirmer que les non-professionnels du domaine de l’architecture et du design peuvent développer un intérêt marqué pour l’amélioration de leurs interactions quotidiennes, avec l’espace et entre les occupants, lorsque bien accompagnés dans cette tâche. Grâce aux propos et aux plans recueillis durant les séances d’ateliers participatifs ainsi qu’à l’analyse de ces données, une série d’interprétations ont émergé. Les données ont notamment démontrées l’influence positive de l’utilisation des patterns d’Alexander. L’analyse permet, en outre, de noter les tendances d’aménagement ayant émergé de l’utilisation des patterns dans les espaces de cuisine : définitivement, les cuisines se sont transformées en espace de vie partagé et polyvalent. Finalement, la présente recherche se conclut grâce à une série de recommandations qui traitent de la structure des cuisines, des ateliers participatifs et des patterns. Tout d’abord, l’impact de ces notions sur les espaces retravaillés par les participants est impressionnant. Les espaces sont bien organisés, vastes et, surtout, reflètent les occupants qui y vivent au quotidien. De plus, ayant démontré la facilité d’utilisation et la polyvalence des patterns, il a été jugé que certains aspects devraient être améliorés tels que l’actualisation de certains patterns, le prolongement du processus d’ateliers, le perfectionnement de la méthode et la diffusion des résultats.
Resumo:
Les origines du peuplement de l’île de Madagascar ne sont encore que partiellement explorées à l’heure actuelle. Différentes populations ont contribué au peuplement de l’île, de nombreuses théories sur les origines de ce peuplement ont émergé et varient grandement selon les sources consultées. Selon l’archéologie et l’anthropologie culturelle, l’arrivée des premiers peuples remonterait à deux millénaires avant notre ère et plusieurs strates de vagues migratoires venues d’Afrique et d’Asie se sont succédées. Pour une vision complète du peuplement de toute l’île, ce sont les études en linguistique et en génétique qui ont donné les meilleures pistes en s’orientant vers une origine à prédominance indonésienne plutôt qu’africaine. Il reste cependant à confronter ces données diverses à celles issues de l’approche phénotypique, qui est peu utilisée. Mon objectif est donc d’explorer cette hypothèse à partir des données craniométriques, et ainsi de tester les modèles de peuplement proposés grâce à d’autres approches. Cet échantillon malgache (N=207) a été subdivisé sur la base de diverses données (géographie, ethnies et affiliations linguistiques). Après des analyses intra-groupe et intergroupes, ce dernier a été comparé à d’autres données craniométriques personnelles et publiées (N=1184). Deux types d’approches statistiques (multivariées classiques et issues de l’approche de la génétique des populations ou RMET) ont été utilisées afin d’obtenir des paramètres diversifiés et complémentaires. Les résultats issus des deux approches tendent vers une origine mixte (Afrique et Asie), dont la prépondérance varie en fonction de la région et du sexe. En effet, les hommes malgaches ont une origine triple (sud de l’Asie du Sud-est, sud de l’Afrique et côtes sud-est africaines), alors que les femmes ont plutôt une origine double (Afrique et Asie) selon l’approche multivariée classique. D’après les analyses RMET, on note que les individus des régions du nord et de l’est de l’île se rapprochent des populations de Tanzanie et les Malgaches présentent des similarités avec les populations indiennes. De plus, on remarque que les Malgaches du groupe nord présentent par rapport aux autres groupes un degré d’hétérogénéité plus élevé (Fst). Ce phénomène est dû probablement à des apports de populations plus diverses dès le début du peuplement de l’île dans cette région. Cette étude, basée sur un petit échantillon, confirme néanmoins les thèses antérieures sur la diversité du peuplement malgache et de plus elle démontre que les composantes prédominantes (Afrique ou Asie) varient selon les régions et le sexe.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
L’expansion des maladies métaboliques dans les sociétés modernes exige plus d’activités de recherche afin d’augmenter notre compréhension des mécanismes et l’identification de nouvelles cibles d’interventions cliniques. L’obésité, la résistance à l’insuline (RI) et la dyslipidémie, en particulier sont tous des facteurs de risque associés à la pathogenèse du diabète de type 2 (DT2) et des maladies cardiovasculaires. Ainsi, la dyslipidémie postprandiale, notamment la surproduction des lipoprotéines hépatiques et intestinales, contribue d’une façon significative à l’hypertriglycéridémie. Quoique plusieurs études cliniques et fondamentales chez l’homme et les modèles animaux aient mis en évidence les rôles importants joués par le foie et l’intestin dans la dyslipidémie, les mécanismes moléculaires en cause ne sont pas bien élucidés. L’une des voies principales régulant le métabolisme lipidique est la voie de la protéine kinase AMPK. L’épuisement de l’ATP intracellulaire entraîne une activation de l’AMPK qui va œuvrer pour rétablir l’équilibre énergétique en stimulant des voies génératrices d’ATP et en inhibant des voies anaboliques consommatrices d’ATP. Les effets positifs de l’activation de l’AMPK comprennent l’augmentation de la sensibilité à l’insuline dans les tissus périphériques, la réduction de l’hyperglycémie et la réduction de la lipogenèse, d’où son importance dans les interventions cliniques pour la correction des dérangements métaboliques. Il est à souligner que le rôle de l’AMPK dans le foie et l’intestin semble plus complexe et mal compris. Ainsi, la voie de signalisation de l’AMPK n’est pas bien élucidée dans les situations pathologiques telles que le DT2, la RI et l’obésité. Dans le présent projet, notre objectif consiste à caractériser le rôle de cette voie de signalisation dans la lipogenèse hépatique et dans le métabolisme des lipides dans l’intestin chez le Psammomys obesus, un modèle animal d’obésité, de RI et de DT2. À cette fin, 3 groupes d’animaux sont étudiés (i.e. contrôle, RI et DT2). En caractérisant la voie de signalisation de l’AMPK/ACC dans le foie, nous avons constaté une augmentation de l’expression génique des enzymes clés de la lipogenèse (ACC, FAS, SCD-1 et mGPAT) et des facteurs de transcription (ChREBP, SREBP-1) qui modulent leur niveau d’expression. Nos analyses détaillées ont révélé, par la suite, une nette augmentation de l’expression de l’isoforme cytosolique de l’ACC, ACC1 (impliqué dans la lipogenèse de novo) concomitante avec une invariabilité de l’expression de l’isoforme mitochondrial ACC2 (impliqué dans la régulation négative de la β-oxydation). En dépit d’un état adaptatif caractérisé par une expression protéique et une phosphorylation (activation) élevées de l’AMPKα, l’activité de la kinase qui phosphoryle et inhibe l’ACC reste très élevée chez les animaux RI et DT2. Au niveau de l’intestin grêle des animaux RI et DT2, nous avons démontré que l’augmentation de la lipogenèse intestinale est principalement associée avec une diminution de la voie de signalisation de l’AMPK (i.e. expression protéique et phosphorylation/activation réduites des deux isoformes AMPKα1 et AMPKα2). La principale conséquence de la diminution de l’activité AMPK est la réduction de la phosphorylation de l’ACC. Étant donné que le niveau d’expression totale d’ACC reste inchangé, nos résultats suggèrent donc une augmentation de l’activité des deux isoformes ACC1 et ACC2. En parallèle, nous avons observé une réduction de l’expression protéique et génique de la CPT1 [enzyme clé de la β-oxydation des acides gras (AG)]. L’ensemble de ces résultats suggère une inhibition de l’oxydation des AG concomitante avec une stimulation de la lipogenèse de novo. Enfin, nous avons démontré que l’intestin grêle est un organe sensible à l’action de l’insuline et que le développement de la résistance à l’insuline pourrait altérer les deux voies de signalisation (i.e. Akt/GSK3 et p38MAPK) essentielles dans plusieurs processus métaboliques. En conclusion, nos résultats indiquent que l’augmentation de la lipogenèse qui contribue pour une grande partie à la dyslipidémie dans la résistance à l’insuline et le diabète serait due, en partie, à des défauts de signalisation par l’AMPK. Nos observations illustrent donc le rôle crucial du système AMPK au niveau hépatique et intestinal, ce qui valide l’approche thérapeutique consistant à activer l’AMPK pour traiter les maladies métaboliques.
Resumo:
Commentaires sur des chansons de Zachary Richard, Émi Bond,Randy Newman, Elton John, Bad Religion, Black Eyed Peas, Kayne West, Evanescence, Kevin Parent, Boom Desjardins, Marie-Chantal Toupin, System of A Down, U2.
Resumo:
Les nanosciences et les nanotechnologies (NST) s’inscrivent dans un champ technoscientifique, le nanomonde, qui a pour socle l’hybridation autant conceptuelle que pratique entre le domaine de la nature et celui de la technique. Dans ce mémoire nous nous intéressons au basculement de la distinction entre le naturel et l’artificiel qui s’ensuit. Un retour socio-historique sur la construction du dualisme nature/artifice propre aux sociétés modernes nous aide alors à saisir les enjeux socio-culturels impliqués dans sa remise en question. La déconstruction, à travers la méthode d’analyse de discours, d’entretiens réalisés avec les principaux chercheurs en NST au Québec illustre empiriquement, tout en le systématisant, le double processus d’artificialisation de la nature et de naturalisation de la technique, pointé théoriquement comme caractéristique de la remise en cause de la distinction entre nature et artifice qu’opère le nanomonde. Nous suggérons que l’artificialisation de la nature et la naturalisation de la technique, loin d’être contradictoires, constituent des éléments d’une dynamique synergique dont le résultat est une désontologisation de la nature comme catégorie de la pensée et une déqualification du monde qui distingue l’activité humaine.
Resumo:
Thèse réalisée en co-tutelle avec l'Université Libre de Berlin, Institut für Deutsche und Niederländische Philologie
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
La pensée égalitariste a traditionnellement promu l’idéal d’un système de santé universel, gratuit et accessible à tous les membres de la société. J’appuie cette position en répliquant tout d’abord à la critique qui prétend que les riches tireraient plus d’avantages que les pauvres de la gratuité du système de santé. J’ouvre ensuite la réflexion sur ce qui me semble être un enjeu crucial pour l’avenir des systèmes modernes de santé : le rationnement de l’offre. Cette idée ne plaît généralement pas à la population, aux décideurs politiques et à de nombreux égalitaristes. Je considère pourtant que les principaux arguments invoqués contre le rationnement sont incohérents ou faussement égalitaristes. La gratuité des services de santé n’est pas incompatible avec la limitation de l’offre publique.
Resumo:
La réflexion sur l’intégration au travail des nouvelles enseignantes touche de plus en plus la communauté des chercheurs en éducation. Avec la valorisation de la pratique réflexive, l’enseignante se voit plus que par le passé autorisé à exercer une grande liberté d’action dans son travail, ainsi qu’une grande autonomie en ce qui à trait à l’exécution de sa tâche. Cette liberté peut être lourde à porter, surtout lorsqu’on entre dans le métier. Aussi, pour soutenir cette liberté et la diriger, la référence aux valeurs demeure fondamentale. Dans le présent mémoire, nous tentons d’en savoir plus sur les valeurs qui animent ces nouvelles venues, et comment celles-ci les aident à vivre leur intégration et à concevoir leur place dans le métier. La cueillette des données effectuée à partir de leurs réflexions, souvent profondes, sur les valeurs personnelles, les valeurs au travail et le rapport au métier, permet une analyse du discours basée sur le ressenti et l’expérience. C’est en puisant dans les thèses de la modernité et de la postmodernité, toutes deux parlantes quant à l’époque actuelle, que nous tentons de mieux cerner et induire les valeurs propres aux enseignantes ayant participé à notre étude phénoménologique de type exploratoire. Grâce à l’analyse de contenu, nous sommes à même de constater que malgré une ligne de partage présente entre certaines valeurs dites modernes et postmodernes, il n’en demeure pas moins qu’une tendance se dessine : nos nouvelles enseignantes désirent être fidèles d’abord et avant tout à elles-mêmes, même si cela implique l’abandon du métier qu’elles envisagent toutes comme une possibilité, sans exception. Cela en dit long sur leurs priorités et leurs valeurs au travail. Il est clair qu’elles travaillent de manière à se sentir authentiques, toujours avec le souci de savoir s’adapter aux nouvelles situations. Cependant, même si certaines d’entre elles trouvent plus ardu de s’adapter à une demande en matière de flexibilité professionnelle à la hausse, il n’en demeure pas moins que la flexibilité au travail est un élément désormais bien intégré à l’habitus professionnel des enseignantes pratiquant depuis dix ans et moins. Si postmodernes que ça nos nouvelles enseignantes? Oui.
Resumo:
Le but de cette recherche est de mieux comprendre les fondements et enjeux sociopolitiques d’un processus d’aménagement linguistique, ainsi que de cerner le rôle que le fait linguistique peut avoir dans le processus de construction d’un système national et dans son fonctionnement et de quelle manière l’application d’une politique linguistique se révèle efficace. Pour ce faire, nous procéderons à une étude comparative des cas concrets de la planification linguistique de la Catalogne et du Québec. Le choix des deux régions se base principalement sur le fait qu’elles représentent toutes les deux un type de nation « subétatique » au sein de laquelle la langue propre (le catalan et le français respectivement) s’est révélée être un élément clé de la représentation de l’identité collective, et qu’elle y possède à la fois un rôle symbolique et participatif. Cependant, la nature du conflit linguistique engendré par la cohabitation entre la langue propre et la langue de l’état (français-anglais/ catalan-espagnol) est visiblement perçu et traité de manière différente dans les deux régions. Donc, les environnements sociopolitiques et linguistiques québécois et catalans offrent à la fois des similitudes et des divergences qui mettent en relief certaines caractéristiques essentielles à la compréhension des mécanismes dans le développement d’une politique linguistique. Les étapes de l’étude se divisent en trois : après une exposition de l’évolution de la théorie de la planification linguistique, seront abordés les moments et évènements historiques marquants, intimement liés au développement du sentiment nationaliste dans les deux régions, ce qui permettra par le fait même d’explorer les relations entre les entités « subétatiques » et étatiques: Québec/Canada et Catalogne/Espagne. Puis seront passés en revue les textes législatifs et juridiques et leur portée. C’est-à-dire que sera vue plus spécifiquement l’application concrète des politiques linguistiques dans les domaines de l’éducation, de l’immigration et des médias de communication. Finalement, au regard des recensements sociolinguistiques les plus récents, les relations seront établies entre les résultats statistiques de l’usage des langues dans les régions respectives et les moyens ayant été déployés dans le cadre de la planification linguistique.
Resumo:
Ce mémoire propose une étude de la thématique hivernale dans les tableaux réalisés par Maurice Cullen (1864-1936) entre 1896 et 1914. Elle s’appuie sur une analyse des contextes politiques et culturels. Pour représenter les paysages enneigés canadiens, Cullen adapte quelques techniques modernes issues de l’impressionnisme, acquises lors de son premier séjour en Europe. Malgré cette influence artistique étrangère présente par l’emploi d’une palette de couleurs vives et de la touche divisée, le respect de la perspective et de la tridimensionnalité témoignent du maintien de certains principes académiques. L’usage de procédés impressionnistes permet à cet artiste de mettre en évidence les caractéristiques atmosphériques et lumineuses de son pays. Par l’application de ces procédés sur la représentation de la neige, Cullen participe ainsi à un travail de redécouverte et de valorisation du territoire. En effet, il privilégie plutôt l’expérience sensitive du territoire que le choix de la thématique des œuvres. L’ensemble des données visuelles et sensitives contenues dans ses œuvres a pour objectif de faire prendre conscience au spectateur de sa difficulté à se repérer au sein de son propre territoire et à accepter les rudes conditions climatiques inhérentes au Canada. Ce travail demeure impartial face au conflit identitaire opposant les francophones et les anglophones, bien qu’il intervienne dans les prémices de la mise en place d’une esthétique canadienne. Ce mémoire défend l’idée que Cullen renouvelle l’imagerie hivernale et s’inscrit dans les débuts du processus de création d’une iconographie nationale. Avec ses pairs, il s’engage à valoriser l’art local, et il ouvre une réflexion sur la représentation du territoire canadien, qui sera poursuivie par la génération suivante avec le Groupe des Sept.
Resumo:
Mon sujet de recherche traite sur la prononciation de l'espagnol comme langue étrangère chez les élèves québécois, sur leurs difficultés concrètes et lignes de correction qui peuvent leur être attribuées. Dans une première partie plus générale, nous traiterons sur l'enseignement de la prononciation, de la place qu'elle occupe dans l'enseignement d'une langue étrangère. Nous croyons que la prononciation est un aspect de la langue qui a été mis de côté pour mettre en valeur la communication. Si une "mauvaise" prononciation n'entrave pas à la compréhension ou à la communication, elle n'est pas corrigée ni travaillée. Nous pouvons donc nous retrouver avec des étudiants ayant un haut niveau d'espagnol mais dont la prononciation connaît certaines lacunes. Nous déterminerons également ce que nous entendons par "meilleure" ou "mauvaise" prononciation, nous nous interrogerons également sur la pertinence de l'enseignement de la phonétique. Nous nous poserons aussi la question sur la place de la prononciation selon la méthodologie didactique utilisée, et analyserons la quantité et qualité des exercices de prononciation présents ou pas dans les manuels scolaires, et s'ils correspondent aux exigences des documents officiels tels le Cadre commun européenne de référence, ou le Plan curricular de l'institut Cervantès. Dans une deuxième partie nous nous questionnons sur les facteurs qui conditionnent l'apprentissage d'une langue et le perfectionnement de la prononciation dans une langue étrangère, car nous croyons que peut importe l'âge de l'étudiant, il y a toujours place à l'amélioration dans la prononciation. Nous nous interrogeons ensuite sur les tendances générales des francophones lors de leur prononciation de l'espagnol, nous ferons une étude contrastive des phonèmes espagnols et français, puis nous étudierons plus en détail les tendances des élèves québécois, car nous croyons que ces derniers sont dotés de certains atouts en comparaison à d'autres francophones. Dans une troisième partie, nous proposons des exercices visant à améliorer la prononciation chez nos élèves, et afin de vérifier l'efficacité de ces exercices, nous enregistrerons des étudiants ayant bénéficié de ces exercices, et d'autres qui n'y auront pas eu droit. Cette étude comparative cherche à prouver que ces exercices aident réellement et qu'ils, ou d'autres exercices de ce genre, devraient être inclus dans l'enseignement. Le questionnaire dont il s'agit s'attarde principalement au phénomène du [r], que nous croyons être un, ou le son le plus difficile à prononcer en espagnol (autant la vibrante simple comme multiple). Bien entendu, une partie de ce chapitre sera consacrée à l'analyse de résultats.
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.