788 resultados para méthodes mixtes
Resumo:
« La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU). »
Resumo:
Le sujet de la gestion du risque m’a toujours interpelée, surtout après que j’ai vécu deux ouragans et un tremblement de terre dévastateurs au Salvador. Bien qu’on ait assez écrit sur le sujet en le reliant souvent aux changements climatiques, on ne sait pas comment les organisations gouvernementales et civiles vivent cette gestion du risque au quotidien. À partir d’une étude ethnographique de la Commission de la protection civile de la Mairie de Tecoluca au Salvador, j’observais les processus qui se mettent en place dans la recherche et l’analyse des facteurs structuraux causant les situations de vulnérabilité. Pour ce faire, j’adoptais une approche basée sur l’étude des interactions, mobilisant les théories de la cognition distribuée et de l’acteur réseau. Comme je le montre, la gestion du risque, vue comme un processus participatif, se caractérise, d’une part, par la coopération et la coordination entre les personnes et, d’autre part, par la contribution d’outils, de technologies, de documents et de méthodes contribuant à la détection de risques. Ceci exige la mobilisation de connaissances qui doivent être produites, partagées et distribuées entre les membres d’un groupe à travers les divers artéfacts, outils, méthodes et technologies qu’ils mobilisent et qui les mobilisent. À ce sujet, la théorie de la cognition distribuée permet d’explorer des interactions qui se produisent au sein d’un groupe de travail en se focalisant sur ce qui contribue à l’acte de connaitre, conçu comme une activité non pas seulement individuelle, mais surtout collective et distribuée. Par ailleurs, la théorie de l’acteur-réseau me permet, quant à elle, de montrer comment dans l’exécution de cette tâche (la gestion du risque), la contribution active d’acteurs non humains, tant en soi qu’en relations avec les acteurs humains, participe de l’activité de détection et de prévention du risque.
Resumo:
Les forêts occidentales sont aujourd’hui de plus en plus prisées pour la pratique d’activités récréatives en milieu naturel. Dès lors, la mise en place d’une gestion intégrée des forêts est plus que jamais indispensable au maintien des conditions nécessaires à la pratique de l’ensemble des activités sur le territoire. Le Québec s’est doté d’une nouvelle législation pour répondre aux nombreux enjeux qui touchent le milieu forestier, notamment en ce qui a trait à l’harmonisation entre les activités récréatives et la production ligneuse. Dans le cadre de cette recherche, nous nous sommes intéressés au concept d’expérience du visiteur comme moyen de faciliter cette harmonisation. Il s’agissait à la fois de caractériser l’expérience de visite des utilisateurs d’un parc régional et de se questionner sur son opérationnalisation dans l’aménagement forestier. Deux méthodes qualitatives complémentaires ont été utilisées : d’une part, l’analyse de récits inscrits dans des livres d’or placés dans différents hébergements et d’autre part, des entrevues ont été conduites auprès de visiteurs rencontrés sur le site. Les résultats révèlent la pertinence de considérer l’expérience du visiteur pour favoriser une utilisation plurielle et harmonieuse du territoire forestier. Son étude permet une compréhension fine des composantes communes et spécifiques des expériences, en fonction des visiteurs. Par ailleurs, l’étude témoigne de la possibilité de mettre en relation des typologies d’expériences recherchées et les modalités d’harmonisation. Enfin, au-delà de l’expérience, le suivi de la perception de la foresterie et des représentations peut également s’avérer pertinent pour les gestionnaires.
Resumo:
Contexte. Les attitudes et comportements alimentaires développés pendant la petite enfance influencent grandement la relation future du mangeur à l’égard des aliments. Le parent s’avère en ce sens des plus déterminants. Objectifs. Cette étude vise à connaître les pratiques et attitudes employées par les parents québécois d’enfants d’âge préscolaire pour favoriser le « bien manger » ainsi que le repas familial agréable. Méthodes. La collecte de données a été effectuée à l’aide de cartes postales qui étaient distribuées dans six cent cinquante Centres de la Petite Enfance parmi les mille retrouvés dans la province de Québec pour ensuite être remises aux parents. L’analyse des réponses aux deux questions ouvertes figurant sur la carte postale a été effectuée en se basant sur le modèle des prises alimentaires de Jean-Pierre Poulain. Résultats. Plus de mille (1257) cartes postales ont été retenues aux fins d’analyses. Les données recueillies permettent dans un premier temps de connaître la perception des parents quant à la notion de manger bien. Les notions de qualité et de quantité, diamétralement opposées se démarquent. Dans le cas du repas familial, la discussion, la présence de tous les membres à table ainsi que l’absence de télévision sont abondamment mentionnées. Conclusion. Cette étude permet de constater la variété des stratégies employées par les parents québécois au moment du repas. Ces données d’une grande pertinence pour la santé publique permettront de cibler les messages clés à promouvoir auprès de ces acteurs d’influence dans le développement des habitudes alimentaires des tout petits.
Resumo:
Ce mémoire s'inscrit dans le domaine de la vision par ordinateur. Elle s'intéresse à la calibration de systèmes de caméras stéréoscopiques, à la mise en correspondance caméra-projecteur, à la reconstruction 3D, à l'alignement photométrique de projecteurs, au maillage de nuages de points, ainsi qu'au paramétrage de surfaces. Réalisé dans le cadre du projet LightTwist du laboratoire Vision3D, elle vise à permettre la projection sur grandes surfaces arbitraires à l'aide de plusieurs projecteurs. Ce genre de projection est souvent utilisé en arts technologiques, en théâtre et en projection architecturale. Dans ce mémoire, on procède au calibrage des caméras, suivi d'une reconstruction 3D par morceaux basée sur une méthode active de mise en correspondance, la lumière non structurée. Après un alignement et un maillage automatisés, on dispose d'un modèle 3D complet de la surface de projection. Ce mémoire introduit ensuite une nouvelle approche pour le paramétrage de modèles 3D basée sur le calcul efficace de distances géodésiques sur des maillages. L'usager n'a qu'à délimiter manuellement le contour de la zone de projection sur le modèle. Le paramétrage final est calculé en utilisant les distances obtenues pour chaque point du modèle. Jusqu'à maintenant, les méthodes existante ne permettaient pas de paramétrer des modèles ayant plus d'un million de points.
Resumo:
Les techniques de groupement technologique sont aujourd’hui utilisées dans de nombreux ateliers de fabrication; elles consistent à décomposer les systèmes industriels en sous-systèmes ou cellules constitués de pièces et de machines. Trouver le groupement technologique le plus efficace est formulé en recherche opérationnelle comme un problème de formation de cellules. La résolution de ce problème permet de tirer plusieurs avantages tels que la réduction des stocks et la simplification de la programmation. Plusieurs critères peuvent être définis au niveau des contraintes du problème tel que le flot intercellulaire,l’équilibrage de charges intracellulaires, les coûts de sous-traitance, les coûts de duplication des machines, etc. Le problème de formation de cellules est un problème d'optimisation NP-difficile. Par conséquent les méthodes exactes ne peuvent être utilisées pour résoudre des problèmes de grande dimension dans un délai raisonnable. Par contre des méthodes heuristiques peuvent générer des solutions de qualité inférieure, mais dans un temps d’exécution raisonnable. Dans ce mémoire, nous considérons ce problème dans un contexte bi-objectif spécifié en termes d’un facteur d’autonomie et de l’équilibre de charge entre les cellules. Nous présentons trois types de méthodes métaheuristiques pour sa résolution et nous comparons numériquement ces métaheuristiques. De plus, pour des problèmes de petite dimension qui peuvent être résolus de façon exacte avec CPLEX, nous vérifions que ces métaheuristiques génèrent des solutions optimales.
Resumo:
PériCulture est le nom d'un projet de recherche à l'Université de Montréal qui fait partie d'un projet plus vaste basé à l'Université de Sherbrooke. Ce dernier visait à former un réseau de recherche pour la gestion du contenu culturel numérique canadien. L'objectif général de la recherche de PériCulture était d'étudier les méthodes d'indexation de contenus culturels non textuels sur le Web, plus spécifiquement des images. Les résultats de la recherche présentés ici s'appuient sur des travaux précédents en indexation d'images et en indexation automatique (de texte), par l'étude des propriétés du texte associé à des images dans un environnement réseau. Le but était de comprendre la façon dont le texte associé à des images sur des pages Web (appelé péritexte) peut être exploité pour indexer les images correspondantes. Nous avons étudié cette question dans le contexte de pages Web sélectionnées, c'est à dire : des pages de contenu culturel canadien contenant des objets multimédia auxquels était associé du texte (plus que simplement les noms de fichiers et les légendes) et qui étaient bilingues (anglais et français). Nous avons identifié les mots-clés utiles à l'indexation situés à proximité de l'objet décrit. Les termes d'indexation potentiels ont été identifiés dans diverses balises HTML et dans le texte intégral (chacun étant considéré comme une source différente de péritexte). Notre étude a révélé qu'un grand nombre de termes d'indexation utiles sont disponibles dans le péritexte de nombreux sites Web ayant un contenu culturel, et ce péritexte de différentes sources a une utilité variable dans la recherche d’information. Nos résultats suggèrent que ces termes peuvent être exploités de différentes manières dans les systèmes de recherche d’information pour améliorer les résultats de recherche.
Resumo:
Ce mémoire de maîtrise a été accompli simultanément à des études à temps plein en droit.
Resumo:
Introduction : La prévention de la mort de cellules cardiaques contractiles suite à un épisode d'infarctus du myocarde représente le plus grand défi dans la récupération de la fonction cardiaque. On a démontré à maintes reprises que l'ocytocine (OT), l'hormone bien connue pour ses rôles dans le comportement social et reproductif et couramment utilisée dans l’induction de l’accouchement, diminue la taille de l'infarctus et améliore la récupération fonctionnelle du myocarde blessé. Les mécanismes de cette protection ne sont pas totalement compris. Objectif : Étudier les effets d'un traitement avec de l'ocytocine sur des cardiomyocytes isolés en utilisant un modèle in vitro qui simule les conditions d'un infarctus du myocarde. Méthodes : La lignée cellulaire myoblastique H9c2 a été utilisée comme modèle de cardiomyocyte. Pour simuler le dommage d'ischémie-reperfusion (IR), les cellules ont été placées dans un tampon ischémique et incubées dans une chambre anoxique pendant 2 heures. La reperfusion a été accomplie par la restauration du milieu de culture régulier dans des conditions normales d'oxygène. L'OT a été administrée en présence ou en absence d'inhibiteurs de kinases connues pour être impliquées dans la cardioprotection. La mortalité cellulaire a été évaluée par TUNEL et l'activité mitochondriale par la production de formazan pendant 1 à 4 heures de reperfusion. La microscopie confocale a servie pour localiser les structures cellulaires. Résultats : Le modèle expérimental de l'IR dans les cellules H9c2 a été caractérisé par une diminution dans la production de formazan (aux alentours de 50 à 70 % du groupe témoin, p < 0.001) et par l'augmentation du nombre de noyaux TUNEL-positif (11.7 ± 4.5% contre 1.3 ± 0.7% pour le contrôle). L'addition de l'OT (10-7 a 10-9 M) au commencement de la reperfusion a inversé les effets de l'IR jusqu'aux niveaux du contrôle (p < 0.001). L'effet protecteur de l'OT a été abrogé par : i) un antagoniste de l'OT ; ii) le knockdown de l'expression du récepteur à l'OT induit par le siRNA ; iii) la wortmannin, l'inhibiteur de phosphatidylinositol 3-kinases ; iv) KT5823, l'inhibiteur de la protéine kinase dépendante du cGMP (PKG); v) l'ODQ, un inhibiteur du guanylate cyclase (GC) soluble, et A71915, un antagoniste du GC membranaire. L'analyse confocale des cellules traitées avec OT a révélé la translocation du récepteur à l'OT et la forme phosphorylée de l'Akt (Thr 308, p-Akt) dans le noyau et dans les mitochondries. Conclusions : L'OT protège directement la viabilité des cardiomyocytes, lorsqu'elle est administrée au début de la reperfusion, par le déclenchement de la signalisation du PI3K, la phosphorylation de l'Akt et son trafic cellulaire. La cytoprotection médiée par l'OT implique la production de cGMP par les deux formes de GC.
Resumo:
La théorie transgouvernementale s’appuie sur l’existence de réseaux transfrontaliers entre composantes de l’État exerçant des fonctions similaires dans une optique de gestion de problèmes communs. Le transgouvernementalisme canado-américain se caractérise par un faible abandon de souveraineté des partenaires, une forte participation des acteurs régionaux, une informalité dans les relations et une intégration des secteurs privé et public et de la société civile au sein de réseaux mixtes. Le modèle de gouvernance binationale en place dans la région du bassin du Saint-Laurent et des Grands Lacs présente toutes les caractéristiques du modèle typique d’intégration transgouvernementale canado-américain. Une analyse poussée révèle en effet une matrice complexe et solide de réseaux transgouvernementaux dont les multiples ramifications s’étendent aujourd’hui beaucoup plus loin que le strict cadre des ententes sous l’égide desquelles ces réseaux ont pris naissance. Si le modèle de l’intégration par réseaux transgouvernementaux apparaît comme la solution retenue par les pouvoirs publics dans la gestion collaborative du bassin du Saint-Laurent et des Grands Lacs, s’agit-il du modèle à privilégier en ce qui a trait à la gouvernance du Passage du Nord-Ouest? Bien que le modèle en place dans la région du Saint-Laurent et des Grands Lacs ne puisse être reproduit intégralement relativement à la gestion du Passage du Nord-Ouest, un modèle d’intégration transgouvernementale, du « bas vers le haut », axé sur la mise en place d’une réglementation commune en matière de navigation et sur une intégration opérationnelle visant à assurer la mise en œuvre de cette règlementation, s’avère approprié pour la gestion du Passage du Nord-Ouest.
Resumo:
Contexte L’occlusion d’une artère du cœur cause un syndrome coronarien aigu (SCA) soit avec une élévation du segment ST (IAMEST) ou sans élévation du segment ST (1). Le traitement des patients avec un IAMEST requiert soit une intervention coronarienne d’urgence (ICP primaire) ou une thérapie fibrinolytique (FL). La thérapie FL peut être administrée soit dans un contexte pré-hospitalier (PHL) ou à l’hôpital. Une prise en charge précoce des patients avec SCA peut être améliorée par un simple indice de risque. Objectifs Les objectifs de cette thèse étaient de : 1) comparer l’ICP primaire et la thérapie FL (2); décrire plusieurs systèmes internationaux de PHL; (3) développer et valider un indice de risque simplifié pour une stratification précoce des patients avec SCA. Méthodes Nous complétons des méta-analyses, de type hiérarchique Bayésiennes portant sur l’effet de la randomisation, d’études randomisées et observationnelles; complétons également un sondage sur des systèmes internationaux de PHL; développons et validons un nouvel indice de risque pour ACS (le C-ACS). Résultats Dans les études observationnelles, l’ICP primaire, comparée à la thérapie FL, est associée à une plus grande réduction de la mortalité à court-terme; mais ce sans bénéfices concluants à long terme. La FL pré-hospitalière peut être administrée par des professionnels de la santé possédant diverses expertises. Le C-ACS a des bonnes propriétés discriminatoires et pourrait être utilisé dans la stratification des patients avec SCA. Conclusion Nous avons comblé plusieurs lacunes importantes au niveau de la connaissance actuelle. Cette thèse de doctorat contribuera à améliorer l’accès à des soins de qualité élevée pour les patients ayant un SCA.
Resumo:
Problématique : Les connaissances théoriques et pratiques au sujet de la mise en charge immédiate d’implants non jumelés chez les édentés sont limitées. Objectifs : Cette étude avait pour but de : (1) déterminer le taux de survie implantaire de 2 implants non jumelés supportant une prothèse totale mandibulaire suite à une mise en charge immédiate, (2) évaluer les changements des niveaux osseux et de stabilité implantaire survenus sur ces 2 implants durant une période de 4 mois et les comparer à un implant témoin, et (3) décrire les complications cliniques associées à ce mode de mise en charge. Méthodologie : Chez 18 individus édentés (âge moyen de 62±7 ans), cette étude de phase I avec un design pré/post a évalué les résultats cliniques suivant la mise en charge immédiate (<48 heures) de 2 implants non jumelés par une prothèse totale mandibulaire. À l’aide de radiographies périapicales, de sondages osseux et d’analyses de la fréquence en résonnance, les niveaux osseux péri-implantaires (en mm) et les niveaux de stabilité implantairte (en ISQ) de ces 2 implants insérés dans la région parasymphysaire ont été évalués à la chirurgie (T0) et au suivi de 4 mois (T1). Un implant non submergé et sans mise en charge inséré dans la région de la symphyse mandibulaire a été utilisé comme témoin. Les données ont été analysées avec des modèles mixtes linéaires, la méthode de Tukey ajustée, l’analyse de variance de Friedman et des tests de rang signés de Wilcoxon. Résultats : De T0 à T1, 3 implants mis en charge immédiatement ont échoué chez 2 patients. Le taux de survie implantaire obtenu était donc de 91,7% (33/36) et, par patient, de 88,9% (16/18). Aucun implant témoin n’a échoué. Les changements osseux documentés radiologiquement et par sondage autour des implants mis en charge immédiatement étaient, respectivement, de -0,2 ± 0,3 mm et de -0,5 ± 0,6 mm. Les pertes d’os de support implantaire n’ont pas été démontrées statistiquement différentes entre les implants avec mise en charge immédiate et les témoins. Les niveaux moyens de stabilité implantaire ont augmenté de 5 ISQ indépendamment de la mise en charge. Les niveaux moyens d’ISQ n’ont pas été démontrés statistiquement différents entre les implants avec mise en charge immédiate et les témoins à T0 ou T1. Cinq des 18 patients n’ont expérimenté aucune complication clinique, alors que 9 en ont eu au moins deux. Hormis les échecs implantaires, aucune de ces complications n’a entraîné de changements au protocole. Conclusion : Les résultats à court terme suggèrent que : (1) le taux de survie implantaire suite au protocole immédiat est similaire à ceux rapportés lors d’un protocole de mise en charge conventionnel (2) les changements d’os de support implantaire et de stabilité ne sont pas différents comparativement à ceux d’un implant témoin, (3) un niveau élevé d’expérience clinique et chirurgicale est requis pour effectuer les procédures et pour gérer les complications associées. Ces résultats préliminaires devraient être confirmés dans une étude clinique de phase II.
Resumo:
Ce mémoire prend la forme d’une réflexion critique sur le modèle proposé par Hosler afin d’expliquer les taux quantifiés d’étain et d’arsénique dans des objets de statut métalliques Mésoaméricains provenant principalement de l’Occident mésoaméricain et couvrant les deux phases de développement de la métallurgie mésoaméricaine. Ces objets font partie de la collection du Museo Regional de Guadalajara. Plus particulièrement, ce mémoire s’intéresse aux grelots mésoaméricains puisqu’ils représentent un élément important de la métallurgie préhispanique en Mésoamérique. Cette réflexion critique soulève plusieurs considérations techniques, méthodologiques, étymologiques, iconographiques, ethnohistoriques et logiques du modèle de Hosler relativement à la couleur des alliages constituant les grelots mésoaméricains. Les paramètres sur lesquels Hosler base son modèle sont questionnables à plusieurs niveaux. Ainsi, le fait que les niveaux d’arsenic ou d’étain observés dans les alliages cupriques de biens utilitaires sont généralement inférieurs à ceux quantifiés dans les alliages cupriques usités pour la fabrication de biens de statut de la Période 2 pourrait s’expliquer par le fait qu’il s’agit de deux méthodes de fabrication distinctes ayant des contraintes techniques différentes ou que ces artéfacts ont des paramètres et des fonctions distinctes. Les limites de l’association soleil-or, lune-argent y sont également exposées et un chapitre est consacré à la sonorité.
Resumo:
Ce projet de maîtrise se consacre à l’apprentissage des prépositions espagnoles chez les élèves francophones. L’identification et l’analyse des erreurs les plus fréquentes dans l’usage des prépositions par des francophones nous permettrons d’élaborer des exercices pratiques qui rendraient leur apprentissage moins difficile. Nous croyons que la difficulté dans l’utilisation des prépositions chez les étudiants réside en partie dans le fait de ne pas connaître leur emploi exact. Nous commencerons donc par présenter l’emploi des principales prépositions en espagnol à partir du Manual de la Nueva gramática de la lengua española et d’autres études. L’enseignement de la grammaire dans les cours d’espagnol comme langue étrangère (ELE) au Québec suit les règles établies par le Cadre européen commun et le Plan curricular de l’Institut Cervantès. Les étudiants développent leur compétence grammaticale de manière inductive; ils sont amenés à comprendre les règles par eux-mêmes et à créer leurs propres hypothèses qu’ils confirment ou réfutent après grâce à quelques explications formelles de l’enseignant et des exercices de pratique. Par contre, cette tendance à laisser l’apprentissage de la grammaire entre les mains des étudiants peut aussi amener à la fossilisation de leurs erreurs si les explications et la pratique ne sont pas suffisantes. Les erreurs sont perçues comme un point de départ pour comprendre où résident les difficultés des étudiants et permettent aux enseignants d’apporter les changements nécessaires à leurs méthodes d’enseignement. Notre révision de quelques investigations réalisées avec la méthode de l’analyse des erreurs, nous permet de cerner les raisons pour lesquelles les francophones commettent autant d’erreurs dans l’utilisation des prépositions espagnoles. Notre analyse de l’enseignement et de la pratique des prépositions dans trois manuels qui s’utilisent actuellement dans les cégeps et les universités du Québec nous permet de voir que les prépositions ne se pratiquent pas assez, surtout au niveau intermédiaire. Nous proposons donc des exercices pratiques qui permettront aux étudiants de pratiquer les prépositions de manière plus efficace.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).