18 resultados para knowledge-based system
em Université de Montréal, Canada
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
La formation des sociétés fondées sur la connaissance, le progrès de la technologie de communications et un meilleur échange d'informations au niveau mondial permet une meilleure utilisation des connaissances produites lors des décisions prises dans le système de santé. Dans des pays en voie de développement, quelques études sont menées sur des obstacles qui empêchent la prise des décisions fondées sur des preuves (PDFDP) alors que des études similaires dans le monde développé sont vraiment rares. L'Iran est le pays qui a connu la plus forte croissance dans les publications scientifiques au cours de ces dernières années, mais la question qui se pose est la suivante : quels sont les obstacles qui empêchent l'utilisation de ces connaissances de même que celle des données mondiales? Cette étude embrasse trois articles consécutifs. Le but du premier article a été de trouver un modèle pour évaluer l'état de l'utilisation des connaissances dans ces circonstances en Iran à l’aide d'un examen vaste et systématique des sources suivie par une étude qualitative basée sur la méthode de la Grounded Theory. Ensuite au cours du deuxième et troisième article, les obstacles aux décisions fondées sur des preuves en Iran, sont étudiés en interrogeant les directeurs, les décideurs du secteur de la santé et les chercheurs qui travaillent à produire des preuves scientifiques pour la PDFDP en Iran. Après avoir examiné les modèles disponibles existants et la réalisation d'une étude qualitative, le premier article est sorti sous le titre de «Conception d'un modèle d'application des connaissances». Ce premier article sert de cadre pour les deux autres articles qui évaluent les obstacles à «pull» et «push» pour des PDFDP dans le pays. En Iran, en tant que pays en développement, les problèmes se situent dans toutes les étapes du processus de production, de partage et d’utilisation de la preuve dans la prise de décision du système de santé. Les obstacles qui existent à la prise de décision fondée sur des preuves sont divers et cela aux différents niveaux; les solutions multi-dimensionnelles sont nécessaires pour renforcer l'impact de preuves scientifiques sur les prises de décision. Ces solutions devraient entraîner des changements dans la culture et le milieu de la prise de décision afin de valoriser la prise de décisions fondées sur des preuves. Les critères de sélection des gestionnaires et leur nomination inappropriée ainsi que leurs remplaçants rapides et les différences de paiement dans les secteurs public et privé peuvent affaiblir la PDFDP de deux façons : d’une part en influant sur la motivation des décideurs et d'autre part en détruisant la continuité du programme. De même, tandis que la sélection et le remplacement des chercheurs n'est pas comme ceux des gestionnaires, il n'y a aucun critère pour encourager ces deux groupes à soutenir le processus décisionnel fondés sur des preuves dans le secteur de la santé et les changements ultérieurs. La sélection et la promotion des décideurs politiques devraient être basées sur leur performance en matière de la PDFDP et les efforts des universitaires doivent être comptés lors de leurs promotions personnelles et celles du rang de leur institution. Les attitudes et les capacités des décideurs et des chercheurs devraient être encouragés en leur donnant assez de pouvoir et d’habiliter dans les différentes étapes du cycle de décision. Cette étude a révélé que les gestionnaires n'ont pas suffisamment accès à la fois aux preuves nationales et internationales. Réduire l’écart qui sépare les chercheurs des décideurs est une étape cruciale qui doit être réalisée en favorisant la communication réciproque. Cette question est très importante étant donné que l'utilisation des connaissances ne peut être renforcée que par l'étroite collaboration entre les décideurs politiques et le secteur de la recherche. Dans ce but des programmes à long terme doivent être conçus ; la création des réseaux de chercheurs et de décideurs pour le choix du sujet de recherche, le classement des priorités, et le fait de renforcer la confiance réciproque entre les chercheurs et les décideurs politiques semblent être efficace.
Resumo:
Les milieux de travail canadiens présentent des visages diversifiés et en pleine mutation. En raison de facteurs tels que les nouvelles technologies, la mondialisation, l’économie du savoir ou encore l’évolution démographique, la transformation des entreprises canadiennes passe par une main-d’œuvre qualifiée, adaptable et de qualité. Notre recherche s’inscrit dans le cadre des études s’intéressant aux comportements des entreprises en matière d’investissement en capital humain au Canada. Nous avons retenu un cadre théorique qui est constitué principalement de la théorie du capital humain, de celle des ressources internes et de l’approche des coûts et des bénéfices. Pour les fins de notre recherche, nous retenons une approche quantitative longitudinale, en utilisant des données secondaires issues du questionnaire des employeurs de l’Enquête sur le milieu de travail et les employés pour les années 1999 à 2005 inclusivement. La nature longitudinale de l’EMTE permet de corriger pour les biais liés à l’hétérogénéité non observée des firmes et à l’endogénéité possible de la variable de formation. Notre étude se divise globalement en trois articles. Dans les deux premiers cas, les dépenses en formation sont considérées comme une variable explicative de la productivité et du taux de roulement des employés. Dans le troisième cas, les dépenses de formation constituent la variable dépendante à l’étude. Le premier article examine l’effet des investissements en formation sur la productivité des entreprises canadiennes. La littérature scientifique traitant de l’impact de la formation sur la performance des entreprises continue de s’accroître dû aux nouvelles techniques d’estimations, à la disponibilité des données, et à l’intérêt grandissant pour le capital humain. Les résultats partiels des études antérieures montrent la possibilité que les retours des investissements réalisés en formation puissent avoir des effets au-delà de l’année courante. Sur le plan théorique, cette hypothèse a du sens, mais au niveau empirique il semble que les liens formels entre la formation et la productivité des entreprises ne sont pas clairement identifiés. Nos résultats montrent que les investissements en formation réalisés avec trois années de retard engendrent des effets positifs et significatifs sur la productivité à court et à moyen termes. L’interaction entre les différents types d’investissements permet de vérifier l’hypothèse à l’effet que les investissements en capital physique et en capital humain soient complémentaires et se supportent mutuellement. Après avoir procédé à l’estimation de l’effet des dépenses en formation structurée sur la productivité des entreprises, nous nous demandons pour quelles raisons les employeurs demeurent réticents quant aux retours des investissements en formation ? Dans le cadre de cette seconde réflexion, nous nous intéressons à deux dimensions de l’estimation du roulement, à savoir le roulement de nature volontaire et une mesure de l’optimum. Les résultats obtenus quant à l’effet des dépenses en formation structurée par employé sur les taux de roulement volontaire et optimal montrent que la relation est positive dans les deux cas. Cet article vise également à vérifier si différents outils organisationnels associés aux relations industrielles peuvent avoir un effet sur la réduction du taux de roulement volontaire des employés. Nos résultats montrent aussi que la présence syndicale et la perception d’un bon climat de travail traduisent dans un sens, un environnement dans lequel l’employeur et les employés ont des intérêts communs pour la poursuite de mêmes objectifs. Dans le cadre du troisième article, nous examinons certains déterminants des investissements en formation structurée au sein des milieux de travail. Nos résultats montrent qu’une entreprise de grande taille, qui investit davantage en capital physique par employé par rapport à la moyenne, au sein de laquelle un grand pourcentage de travailleurs utilisent un ordinateur, où il y a une proportion élevée de nouvelles embauches et pour laquelle l’employeur introduit un système cohérent de pratiques dépense davantage en formation structurée qu’une entreprise qui ne possède pas ces caractéristiques, toutes choses égales par ailleurs. Ces résultats permettent de discuter également de la complémentarité des facteurs faisant partie d’un cercle vertueux de croissance des entreprises pouvant déterminer les investissements en formation.
Resumo:
Inspiré par la réflexion quant aux nouvelles formes d’organisation du travail de la nouvelle économie, ce mémoire s’intéresse à la question des heures supplémentaires non formellement rémunérées chez une frange de travailleurs hautement qualifiés, les concepteurs de jeux vidéo. Très innovantes pour les employeurs, ces formes d’organisation, en particulier l’organisation par projets, ne sont pas sans poser des problèmes aux travailleurs. À l’instar des travailleurs du savoir qui sont souvent prêts à investir de longues heures au travail, les concepteurs de jeux vidéo travaillent fréquemment en heures supplémentaires. Or ces heures supplémentaires sont non seulement non rémunérées, mais elles sont aussi longues et fréquentes. Comment en vient-on à faire accepter aux concepteurs cette situation, sans toutefois exiger d’eux qu’ils travaillent en heures supplémentaires? Pour explorer cette question, les discours de 53 concepteurs de jeux vidéo montréalais ont été analysés. Les résultats de cette recherche dévoilent une explication basée sur un système informel de récompenses et de châtiments qui induit chez la majorité des concepteurs de jeux interrogés une propension à travailler en heures supplémentaires non rémunérées.
Resumo:
Dans le contexte actuel de l’éducation, l’enfant est davantage placé au cœur des relations entre la famille, l’école et la communauté, et les parents sont invités à accompagner leur enfant tout au long de son parcours scolaire. Quant aux enseignants, ils sont conviés à collaborer de façon systématique avec les familles. La collaboration entre les enseignants et les parents devient donc une condition essentielle à la réussite scolaire des élèves, notamment avec ceux qui éprouvent des difficultés d’apprentissage. Actuellement, dans nos écoles, la collaboration se situe principalement au niveau des communications obligatoires de base prescrites par le Régime pédagogique. En ce sens, Kalubi et Lesieux (2006) soulignent que le partenariat tant souhaité dans les documents officiels des ministères concernés ne transparaît pas toujours dans les pratiques quotidiennes. D’ailleurs, la littérature scientifique montre qu’il existe de nombreux obstacles liés à la collaboration école-famille-communauté, tout particulièrement lorsqu’il s’agit d’entretenir des relations harmonieuses avec les parents d’élèves à risque. À cet égard, une plus grande participation parentale est sollicitée en vue d’intensifier la collaboration entre l’école et la famille. Effectivement, les enseignants désirent que les parents s’impliquent davantage auprès de leur enfant dans les travaux et les devoirs à la maison et, du côté des parents, ils se demandent souvent comment agir pour aider encore mieux leurs enfants dans leur apprentissage (Gouvernement du Québec, 2000). Le plan d’intervention est un outil reconnu par les milieux scolaires pour aider l’élève à risque dans son cheminement scolaire puisqu’il sollicite la participation des parents et encourage la collaboration école-famille-communauté. De fait, il s’inscrit dans une démarche dynamique et prend appui sur une vision systémique de la situation de l’élève, ce qui permet de mieux identifier les besoins de l’élève à risque et d’y répondre adéquatement (Gouvernement du Québec, 2004). En prolongement à ce que l’on connaît déjà sur la participation parentale et la collaboration école-famille-communauté, nous orientons cette recherche sur les perceptions et les attentes d’enseignants au primaire en classe ordinaire et de parents d’élèves à risque à l’égard de la participation parentale et de la collaboration école-famille dans le cadre de l’élaboration et du suivi du plan d’intervention. Cette étude emprunte une approche de recherche qualitative de type exploratoire et elle est menée auprès de huit enseignants au primaire et de sept parents d’élèves à risque. Les participants ont délibérément été choisis pour leur représentativité par rapport à l’objet d’étude (Mongeau, 2009). Une procédure d’échantillonnage par volontariat a été appliquée et les données ont été recueillies par le biais d’entrevues semi-dirigées. L’analyse des entrevues révèle que les parents participent au plan d’intervention parce qu’ils veulent soutenir et aider leur enfant dans leur cheminement scolaire. Il existe cependant de multiples façons pour les parents de participer à la réussite scolaire de leur enfant, celles-ci variant particulièrement selon leurs intérêts, leurs compétences et leurs disponibilités. En ce qui concerne les enseignants, les entrevues nous dévoilent qu’ils ont globalement des perceptions positives à l’égard des parents, ce qui favorise grandement l’établissement de relations harmonieuses. Par contre, ils s’attendent à une plus grande participation parentale dans le suivi scolaire de l’enfant à la maison. Tant d’un côté que de l’autre, les résultats indiquent qu’il faut favoriser davantage la participation des parents à l’élaboration et au suivi du plan d’intervention de l’élève à risque. Idéalement, les enseignants et les parents devraient s’enrichir mutuellement de leurs ressources et de leurs expertises complémentaires en créant des relations collaboratives plutôt que hiérarchiques. Ce niveau de collaboration est sans aucun doute celui qui favoriserait avantageusement la réussite scolaire des élèves à risque.
Resumo:
Le caribou forestier est une espèce menacée au Canada, la principale hypothèse au déclin des populations étant l’intensification de la prédation provoquée par les perturbations anthropiques du paysage. Afin de faire face à cette situation, il est nécessaire d’étudier et comprendre l’impact de l’environnement sur les interactions prédateur-proies entre le caribou et le loup, ainsi qu’avec l’orignal, qui est sa principale proie alternative. Pour cela, cette thèse présente la conception d’un modèle centré sur l’individu des déplacements de ces trois espèces en fonction de leur environnement, dont résulteront les interactions prédateur-proies. Afin de permettre l’application de ce modèle sur de longues périodes, et donc pour un environnement changeant, une méthodologie a été développée, qui s’articule atour de deux aspects principaux. Tout d’abord, la notion de niveaux d’émergence est introduite, permettant d’ordonner les comportements observables du système selon leurs interdépendances, afin de choisir comme trait du modèle un com- portement correspondant au domaine d’applicabilité visé. Ordonner les comportements selon leurs niveaux d’émergence permet également d’identifier la redondance entre les patrons, qui peut être à l’origine d’un phénomène de sur-apprentissage lorsqu’ils sont utilisés lors de la calibration. Dans un second temps, un nouveau protocole pour la calibration et la validation du ou des traits choisis à l’aide des niveaux d’émergence, nommé réplication de système basé sur l’individu (Individual Based System Replication - IBSRtion) est également présenté. Ce protocole met l’emphase sur la modélisation directe, contrairement au principal protocole existant, la modélisation orientée patrons (Pattern Oriented Modelling - POM), et permet une approche empirique en générant artificiellement des données non disponibles ou ne pouvant être récoltées par des études de terrains. IBSRtion a également l’avantage de pouvoir être intégrée dans POM, afin de contribuer à la création d’une méthodologie universelle pour la conception de modèles centrés sur l’individu. Le processus de conception de ce modèle aura entre autre permis de faire une synthèse des connaissances et d’identifier certaines lacunes. Une étude visant à palier le manque de connaissances satisfaisantes sur les réponses comportementales à court-terme des proies face au risque de prédation a notamment permis d’observer que celles-ci sont une combinaison de comportements chroniques et éphémères, et que les mécanismes qui en sont à l’origine sont complexes et non-linéaires. Le résultat de ce travail est un modèle complexe utilisant de nombreux sous-modèles, et calibré de façon empirique, applicable à une grande variété d’environnements. Ce modèle a permis de tester l’impact de l’enfeuillement sur les relations prédateur-proies. Des simulations ont été effectuées pour différentes quantités d’enfeuillement, suivant deux configurations spatiales différentes. Les résultats de simulation suggèrent que des plans d’aménagement considérant également l’habitat de l’orignal pourraient être bénéfiques pour le caribou forestier, car ils permettraient d’améliorer la ségrégation spatiale entre les deux espèces, et donc entre le caribou et le loup. En le couplant avec un module de naissances et de morts naturelles ainsi qu’un modèle d’évolution du paysage, ce modèle permettra par la suite d’évaluer l’impact de plans d’aménagement forestier sur la viabilité des populations de caribou forestier.
Resumo:
Cette thèse présente le résultat de plusieurs années de recherche dans le domaine de la génération automatique de résumés. Trois contributions majeures, présentées sous la forme d'articles publiés ou soumis pour publication, en forment le coeur. Elles retracent un cheminement qui part des méthodes par extraction en résumé jusqu'aux méthodes par abstraction. L'expérience HexTac, sujet du premier article, a d'abord été menée pour évaluer le niveau de performance des êtres humains dans la rédaction de résumés par extraction de phrases. Les résultats montrent un écart important entre la performance humaine sous la contrainte d'extraire des phrases du texte source par rapport à la rédaction de résumés sans contrainte. Cette limite à la rédaction de résumés par extraction de phrases, observée empiriquement, démontre l'intérêt de développer d'autres approches automatiques pour le résumé. Nous avons ensuite développé un premier système selon l'approche Fully Abstractive Summarization, qui se situe dans la catégorie des approches semi-extractives, comme la compression de phrases et la fusion de phrases. Le développement et l'évaluation du système, décrits dans le second article, ont permis de constater le grand défi de générer un résumé facile à lire sans faire de l'extraction de phrases. Dans cette approche, le niveau de compréhension du contenu du texte source demeure insuffisant pour guider le processus de sélection du contenu pour le résumé, comme dans les approches par extraction de phrases. Enfin, l'approche par abstraction basée sur des connaissances nommée K-BABS est proposée dans un troisième article. Un repérage des éléments d'information pertinents est effectué, menant directement à la génération de phrases pour le résumé. Cette approche a été implémentée dans le système ABSUM, qui produit des résumés très courts mais riches en contenu. Ils ont été évalués selon les standards d'aujourd'hui et cette évaluation montre que des résumés hybrides formés à la fois de la sortie d'ABSUM et de phrases extraites ont un contenu informatif significativement plus élevé qu'un système provenant de l'état de l'art en extraction de phrases.
Resumo:
Ce travail concerne la valorisation des résultats de la recherche universitaire. Il s'agit d'une terminologie qui concerne le processus ainsi que l'infrastructure - les bureaux de valorisation - permettant à un chercheur académique de commercialiser les résultats de sa recherche. Une étude de cas comparant la Belgique et le Québec dans ce domaine se trouvera au centre des réflexions. L'accent sera tout d'abord mis sur le cadre théorique permettant de comprendre l'origine et le sens de l'activité de valorisation. Différents concepts comme l'innovation et l'économie du savoir devront alors être introduits, notamment dans une perspective historique et normative. De plus, différents modèles théoriques se succèderont ; ce qui permettra au lecteur d'acquérir une vision complète du domaine étudié. La problématique qui anime ensuite la recherche est centrée sur les relations qui existent entre les bureaux de valorisation et les chercheurs universitaires qui font appel à leurs services et à l'impact de ces relations sur le processus de valorisation. Les différentes hypothèses proposées suggèrent l'importance des politiques universitaires de propriété intellectuelle ainsi que celle de la culture universitaire de la recherche académique. Ces différents points sont analysés au regard des entretiens semi-directifs effectués. Le but final de ce mémoire est la proposition de recommandations sur certaines bonnes pratiques dans le domaine de la valorisation. Ces dernières concernent d'une part la position organisationnelle des bureaux de valorisation au sein du processus de valorisation et, d'autre part, l'importance de la communication dans ce même processus.
Resumo:
Récemment, nous avons pu observer un intérêt grandissant pour l'application de l'analogie formelle à l'analyse morphologique. L'intérêt premier de ce concept repose sur ses parallèles avec le processus mental impliqué dans la création de nouveaux termes basée sur les relations morphologiques préexistantes de la langue. Toutefois, l'utilisation de ce concept reste tout de même marginale due notamment à son coût de calcul élevé.Dans ce document, nous présenterons le système à base de graphe Moranapho fondé sur l'analogie formelle. Nous démontrerons par notre participation au Morpho Challenge 2009 (Kurimo:10) et nos expériences subséquentes, que la qualité des analyses obtenues par ce système rivalise avec l'état de l'art. Nous analyserons aussi l'influence de certaines de ses composantes sur la qualité des analyses morphologiques produites. Nous appuierons les conclusions tirées de nos analyses sur des théories bien établies dans le domaine de la linguistique. Ceci nous permet donc de fournir certaines prédictions sur les succès et les échecs de notre système, lorsqu'appliqué à d'autres langues que celles testées au cours de nos expériences.
Resumo:
La campylobactériose représente la principale cause de gastro-entérite bactérienne dans les pays industrialisés. L’épidémiologie de la maladie est complexe, impliquant plusieurs sources et voies de transmission. L’objectif principal de ce projet était d’étudier les facteurs environnementaux impliqués dans le risque de campylobactériose et les aspects méthodologiques pertinents à cette problématique à partir des cas humains déclarés au Québec (Canada) entre 1996 et 2006. Un schéma conceptuel des sources et voies de transmission de Campylobacter a d’abord été proposé suivant une synthèse des connaissances épidémiologiques tirées d’une revue de littérature extensive. Le risque d’une récurrence de campylobactériose a ensuite été décrit selon les caractéristiques des patients à partir de tables de survie et de modèles de régression logistique. Comparativement au risque de campylobactériose dans la population générale, le risque d’un épisode récurrent était plus élevé pour les quatre années suivant un épisode. Ce risque était similaire entre les genres, mais plus élevé pour les personnes de régions rurales et plus faible pour les enfants de moins de quatre ans. Ces résultats suggèrent une absence d’immunité durable ou de résilience clinique suivant un épisode déclaré et/ou une ré-exposition périodique. L’objectif suivant portait sur le choix de l’unité géographique dans les études écologiques. Neuf critères mesurables ont été proposés, couvrant la pertinence biologique, la communicabilité, l’accès aux données, la distribution des variables d’exposition, des cas et de la population, ainsi que la forme de l’unité. Ces critères ont été appliqués à des unités géographiques dérivées de cadre administratif, sanitaire ou naturel. La municipalité affichait la meilleure performance, étant donné les objectifs spécifiques considérés. Les associations entre l’incidence de campylobactériose et diverses variables (densité de volailles, densité de ruminants, abattoirs, température, précipitations, densité de population, pourcentage de diplomation) ont ensuite été comparées pour sept unités géographiques différentes en utilisant des modèles conditionnels autorégressifs. Le nombre de variables statistiquement significatives variait selon le degré d’agrégation, mais la direction des associations était constante. Les unités plus agrégées tendaient à démontrer des forces d’association plus élevées, mais plus variables, à l’exception de l’abattoir. Cette étude a souligné l’importance du choix de l’unité géographique d’analyse lors d’une utilisation d’un devis d’étude écologique. Finalement, les associations entre l’incidence de campylobactériose et des caractéristiques environnementales ont été décrites selon quatre groupes d’âge et deux périodes saisonnières d’après une étude écologique. Un modèle de Poisson multi-niveau a été utilisé pour la modélisation, avec la municipalité comme unité. Une densité de ruminant élevée était positivement associée avec l’incidence de campylobactériose, avec une force d’association diminuant selon l’âge. Une densité de volailles élevée et la présence d’un abattoir de volailles à fort volume d’abattage étaient également associées à une incidence plus élevée, mais seulement pour les personnes de 16 à 34 ans. Des associations ont également été détectées avec la densité de population et les précipitations. À l’exception de la densité de population, les associations étaient constantes entre les périodes saisonnières. Un contact étroit avec les animaux de ferme explique le plus vraisemblablement les associations trouvées. La spécificité d’âge et de saison devrait être considérée dans les études futures sur la campylobactériose et dans l’élaboration de mesures préventives.
Resumo:
Cette thèse questionne l’apport de la conservation du patrimoine urbain à l’urbanisme. Il y est avancé que l’association entre la conservation du patrimoine urbain et l'urbanisme, dans leur cadre conceptuel actuel, plutôt que d’être le catalyseur du renouvellement de l’urbanisme, a perpétué une appréhension fragmentée et une atomisation de l'établissement, consacrant ainsi le paradigme fonctionnaliste, qui conditionne encore largement les pratiques urbanistiques contemporaines, au Québec notamment. En effet, bien que depuis les années 1960 la conservation du patrimoine soit présentée comme le fil rouge dans le redéploiement de la compétence d’édifier, plusieurs études soulignent les résultats mitigés de nombreuses expériences de conservation ainsi qu’une contribution limitée relativement à la formulation des projets urbains. Plus particulièrement, malgré la reconnaissance de l’intérêt de la patrimonialisation et de la fécondité potentielle de l’idée de patrimoine en général, l’urbanisme n’est pas parvenu à en définir les termes de la contribution, tant au plan conceptuel que processuel, en regard de sa propre projectualité. De ce fait, il ne réussit pas à affranchir la réflexion patrimoniale du registre de la conservation afin de se l’approprier véritablement. Cette thèse explique les causes de cette incapacité à partir d’une analyse des conditions de l’appropriation de la notion de patrimoine urbain mises de l’avant par l’approche giovannonienne. Celle-ci, fondamentalement urbanistique, propose une conception du patrimoine urbain qui s’émancipe du monument historique et du registre de la conservation. Indissociable d’une projectualité urbanistique, l’intérêt pour le patrimoine urbain de Giovannoni relève d’une reconnaissance du déjà là qui fonde des modalités de prises en charge de l’existant. Celles-ci posent les bases d’un renouvellement de la manière de penser l’urbanisme. La notion giovannonienne de patrimoine urbain, qui réfère à l’ensemble urbain patrimonial, devient l’élément de base d’une analyse morphologique urbanistique qui permet de conceptualiser l’agglomération contemporaine comme ensemble marqué par les ruptures et les discontinuités. Prenant appui sur une démarche dialogique, l’approche giovannonienne relève d’une mise en tension des singularités et d’une appréhension conjointe des différentes registres, ceux des formes et des forces, de l’existant et du souhaité, du penser et du faire. Giovannoni dépasse ainsi l’opposition entre continuité et rupture portée par les pratiques afin de penser l’articulation du nouveau à l’ancien. La confrontation de l’approche giovannonienne aux différentes perspectives qui ont marqué l’urbanisme moderne, montre que ces modalités de prise en charge de l’existant sont conditionnelles à l’accomplissement des promesses de la considération du patrimoine urbain. Autrement, l’association de la conservation du patrimoine urbain et de l’urbanisme culmine dans une double assimilation : l’assimilation du patrimoine urbain au monument historique d’architecture conduit à confondre projet d’urbanisme et projet de conservation.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Introduction: Bien que la dépense énergétique associée au travail mental ne soit pas plus élevée qu’au repos, des travaux ont mené à la conclusion que la réalisation d’une tâche mentale stressante était reliée à une augmentation de la consommation énergétique. Il est suggéré que le travail mental stressant produise des effets physiologiques modulant l’apport alimentaire. Le but du projet était donc de déterminer, dans une population d’adolescents masculins, si l’introduction d’une période d’activité physique pourrait contrebalancer les effets négatifs du travail intellectuel dans le contrôle de l’ingestion et du bilan énergétiques. Méthodes: Douze étudiants de sexe masculin, sans surplus de poids et âgés entre 14 et 20 ans, ont été évalués au CHU Sainte-Justine. Ils devaient prendre part à trois visites dans un ordre aléatoire: a) visite NOpause = relaxation/travail mental/repas; b) visite RELpause = travail mental/relaxation/repas; visite PApause = travail mental/activité physique/repas. L’effet de l’introduction d’une pause active sur l’ingestion et le bilan (kilojoules ingérés - kilojoules dépensés lors des différentes tâches) énergétiques a été étudié en comparant les visites par analyse par test-t pour échantillons appariés avec un seuil de significativité fixé à 0,05. Résultats: L’introduction d’une pause passive entre le travail mental et le repas ne modifie en rien l’ingestion et le bilan énergétiques. L’introduction de la pause active n’augmente pas la consommation alimentaire, et ce, malgré une augmentation significative des sensations associées à l’appétit (envie de manger, faim, sensation d’être rempli et consommation anticipée d’aliments). Considérant la dépense énergétique inhérente à la pratique d’activité physique, un bilan énergétique significativement inférieur de plus de 1000 kJ a été mesuré pour la visite avec pause active par rapport à la visite sans pause. Conclusion : Cette étude est la première à confirmer que de bouger entre un travail mental et un repas est une stratégie efficace pour contrer l’effet hyperphagiant du travail mental via son action sur la dépense énergétique augmentée et un maintien de l’ingestion calorique. Globalement, ces résultats pourraient aider au maintien et à l'amélioration d'un statut corporel sain dans un contexte où le travail mental est omniprésent.
Resumo:
Les systèmes statistiques de traduction automatique ont pour tâche la traduction d’une langue source vers une langue cible. Dans la plupart des systèmes de traduction de référence, l'unité de base considérée dans l'analyse textuelle est la forme telle qu’observée dans un texte. Une telle conception permet d’obtenir une bonne performance quand il s'agit de traduire entre deux langues morphologiquement pauvres. Toutefois, ceci n'est plus vrai lorsqu’il s’agit de traduire vers une langue morphologiquement riche (ou complexe). Le but de notre travail est de développer un système statistique de traduction automatique comme solution pour relever les défis soulevés par la complexité morphologique. Dans ce mémoire, nous examinons, dans un premier temps, un certain nombre de méthodes considérées comme des extensions aux systèmes de traduction traditionnels et nous évaluons leurs performances. Cette évaluation est faite par rapport aux systèmes à l’état de l’art (système de référence) et ceci dans des tâches de traduction anglais-inuktitut et anglais-finnois. Nous développons ensuite un nouvel algorithme de segmentation qui prend en compte les informations provenant de la paire de langues objet de la traduction. Cet algorithme de segmentation est ensuite intégré dans le modèle de traduction à base d’unités lexicales « Phrase-Based Models » pour former notre système de traduction à base de séquences de segments. Enfin, nous combinons le système obtenu avec des algorithmes de post-traitement pour obtenir un système de traduction complet. Les résultats des expériences réalisées dans ce mémoire montrent que le système de traduction à base de séquences de segments proposé permet d’obtenir des améliorations significatives au niveau de la qualité de la traduction en terme de le métrique d’évaluation BLEU (Papineni et al., 2002) et qui sert à évaluer. Plus particulièrement, notre approche de segmentation réussie à améliorer légèrement la qualité de la traduction par rapport au système de référence et une amélioration significative de la qualité de la traduction est observée par rapport aux techniques de prétraitement de base (baseline).
Resumo:
L’optogénétique est une technique prometteuse pour la modulation de l’activité neuronale. Par l’insertion d’une opsine microbienne dans la membrane plasmique de neurones et par son activation photonique, il devient possible de réguler l’activité neuronale avec une grande résolution temporelle et spatiale. Beaucoup de travaux ont été faits pour caractériser et synthétiser de nouvelles opsines. Ainsi, plusieurs variétés d’opsines sont désormais disponibles, chacune présentant des cinétiques et sensibilités à des longueurs d’onde différentes. En effet, il existe des constructions optogénétiques permettant de moduler à la hausse ou à la baisse l’activité neuronale, telles la channelrhodopsine-2 (ChR2) ou la halorhodopsine (NpHR), respectivement. Les promesses de cette technologie incluent le potentiel de stimuler une région restreinte du cerveau, et ce, de façon réversible. Toutefois, peu d’applications en ce sens ont été réalisées, cette technique étant limitée par l’absorption et la diffusion de la lumière dans les tissus. Ce mémoire présente la conception d’une fibre optique illuminant à un angle de 90° à sa sortie, capable de guider la lumière à des structures bien précises dans le système nerveux central. Nous avons conduit des tests in vivo dans le système visuel de souris transgéniques exprimant la ChR2 dans l’ensemble du système nerveux central. Dans le système visuel, les signaux rétiniens sont conduits au corps genouillé latéral (CGL) avant d’être relayés au cortex visuel primaire (V1). Pour valider la capacité de mon montage optogénétique à stimuler spécifiquement une sous-population de neurones, nous avons tiré profit de l’organisation rétinotopique existant dans le système visuel. En stimulant optogénétiquement le CGL et en tournant la fibre optique sur elle-même à l’aide d’un moteur, il devient possible de stimuler séquentiellement différentes portions de cette structure thalamique et conséquemment, différentes représentations du champ visuel. L’activation des projections thalamiques sera enregistrée au niveau de l’aire V1 à l’aide de l’imagerie optique intrinsèque, une technique qui permet d’imager les variations de la concentration d’oxygène et du volume sanguin dans le tissu neuronal, sur une grande surface corticale. Comme l’organisation rétinotopique est maintenue au niveau de l’aire V1, l’espace activé au niveau du cortex révèlera l’étendue spatiale de notre stimulation optogénétique du CGL. Les expériences in vivo démontrèrent qu’en déplaçant la fibre optique dans le CGL, il nous était possible de stimuler différents sous- ensembles de neurones dans cette structure thalamique. En conclusion, cette étude montre notre capacité à développer un système à base de fibre optique capable de stimuler optogénétiquement une population de neurone avec une grande précision spatiale.