47 resultados para Méthodes de recherche avec tabous
em Université de Montréal
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
OCIM : Office de coopération et d'information muséales
Resumo:
Contexte: Les approches de synthèse exploratoire (ou scoping studies) font actuellement l’objet de confusion dans leur appellation, définition et but. Elles continuent aussi de manquer de description méthodologique suffisante ou de détails sur le processus de l’analyse de données. Objectif : Cette synthèse exploratoire fait le point des connaissances sur les approches de synthèse exploratoire utilisées en santé. Plus spécifiquement, ses objectifs sont : 1) d’examiner le volume et l’étendue des synthèses exploratoires ainsi que les domaines d’étude dans lesquels elles ont été conduites; 2) de faire l’inventaire de leurs définitions, buts, forces et faiblesses; et 3) et de faire l’inventaire des approches méthodologiques existantes. Méthodes : Une recherche systématique des synthèses exploratoires a été entreprise jusqu’en avril 2014 dans les bases de données Medline, PubMed, ERIC, PsycINFO, CINAHL, EMBASE, EBM Reviews/Cochrane. Des critères d’inclusion et d’exclusion ont été appliqués afin de ne retenir que des études de langue française et anglaise présentant des définitions, méthodes et écarts de connaissances sur les synthèses exploratoires, ainsi que celles les comparant à d’autres types de revues de littérature. Deux reviseurs ont examiné de façon indépendante les références pertinentes. Une grille d’extraction des données a été conçue afin de recueillir pour chacune des études, les données contextuelles, les étapes méthodologiques ainsi que les définitions, buts et limites des synthèses exploratoires. Les données ont été répertoriées et classées afin de dresser un portrait global des approches de synthèses exploratoires dans un format narratif et tabulaire. Résultats : Sur deux cent cinquante-deux références identifiées, quatre-vingt-douze références pertinentes ont été retenues. Les synthèses exploratoires ont été publiées par 6 pays dans 10 domaines d’études et 73 journaux. Elles ont pour finalité d’être à la fois un support aux connaissances, une aide à la décision et un préalable à une revue systématique de littérature. Cinq auteurs ont été cités en référence et huit autres ont publié sur leur méthodologie. Elles ont 3 étapes importantes de réalisation dont la revue de littérature, la consultation des parties prenantes et la synthèse globale avec ou sans validation des résultats. Les synthèses exploratoires utilisent une méthode systématique, pas toujours exhaustive et sans évaluation formelle des études incluses Des notions claires portant sur leur définition, buts, forces et faiblesses ont été identifiées. Conclusion : Nous suggérons que de nouvelles études soient entreprises afin d’asseoir complètement cette méthode et dégager des lignes directrices pour les chercheurs qui s’y intéresseront.
Resumo:
This thesis investigates the crossover from and intersection between tangible and intangible heritage in the context of World Heritage. Since the start of the twenty-first century, intangible heritage has become increasingly important in international cultural heritage conservation theory and practice. In heritage literature, intangible heritage has been theorized in relation to tangible or built heritage, thereby extending the definition of cultural heritage to consider a holistic perspective. New heritage conservation instruments have been created for the protection of intangible heritage, such as most prominently the 2003 UNESCO Convention for the Safeguarding of the Intangible Cultural Heritage. The changing conception of cultural heritage that goes beyond tangible heritage has also influenced existing instruments like the 1972 UNESCO Convention concerning the protection of the World Cultural and Natural Heritage. The thesis studies how intangible heritage has been recognized and interpreted in implementing the concept of cultural heritage as defined by the World Heritage Convention. It examines the historical development of the concept of World Cultural Heritage with the aim of tracing the construction of intangible heritage in this context. The thesis consists of six chapters. The introduction sets out the research problem and research question. In the literature review, international cultural heritage conservation is portrayed as the research context, the knowledge gap between World Heritage and intangible heritage is identified and an understanding of the research problem deepened, and methods from similar research in the subject area are presented. The methodology in the third chapter describes choices made concerning the research paradigm, research approach and strategy, the use of concepts and illustrative examples, as well as data collection and analysis methods. Knowledge is constructed using primarily a historical approach and related methods. Through the analysis of pertinent documents and heritage discourses, an understanding of the concept of intangible heritage is developed and the concept of World Cultural Heritage is investigated. In the fourth chapter, intangible heritage is studied by looking at specific cultural heritage discourses, that is, a scientific, a UNESCO, and an ICOMOS discourse. Intangible heritage is theorized in relation to the concepts of tangible heritage, heritage value, and cultural heritage. Knowledge gained in this chapter serves as a theoretical lens to trace the recognition of and tease out interpretations of intangible heritage in the context of implementing the concept of World Cultural Heritage. The results are presented in chapter five. A historical development is portrayed in five time periods and for the concepts of cultural heritage, Outstanding Universal Value, the criteria to assess World Heritage value, and authenticity. The conclusion summarizes the main outcomes, assesses the thesis’ contribution to scientific knowledge as well as its limitations, and outlines possible further research. The main results include the identification of the term intangible heritage as an indicator for a paradigm shift and a new approach to conceiving cultural heritage in international cultural heritage conservation. By focusing on processes and the living relationship between people and their environment or place, intangible heritage emphasizes the anthropological. In the context of this conception, intangible heritage takes on two meanings. First, value is attributed by people and hence, is inherently immaterial. Secondly, place is constituted of a tangible-intangible continuum in terms of attributes. A paradigm shift and increasing recognition of an anthropological approach to cultural heritage were identified for all discourses, that is, UNESCO, ICOMOS, the scientific field, and World Heritage. For World Heritage, intangible heritage was recognized indirectly in terms of historical associations during the 1970s and 1980s. The anthropological shift occurred in the early 1990s. The term intangible was introduced and the meaning of intangible heritage was extended to include cultural associations. The subsequent decade is characterized by a process of internalization and implementation of the new approach to cultural heritage. The 2003 Intangible Cultural Heritage Convention created momentum. By the early 2010s, while not explicitly recognizing the immaterial character of values, a holistic approach to cultural heritage was fully endorsed that considers the idea of intangible attributes as carriers of values. An understanding of the recognition of intangible heritage through the implementation of the World Heritage Convention and scientific research in general provide an important knowledge base for implementing the Convention in a more coherent, objective, and well-informed way.
Resumo:
Article
Resumo:
Les produits cosmétiques sont des substances utilisées pour entretenir ou modifier l'aspect des parties superficielles du corps humain (telles que la peau, les ongles ou les cheveux). Dans de nombreux pays d’Afrique et d’Asie et dans certaines communautés africaines immigrantes, plusieurs femmes et parfois des hommes utilisent des produits contenant des agents actifs tels que le mercure, l’hydroquinone et le propionate de clobétasol pour éclaircir leur peau. Ces principaux agents sont toxiques et leur présence dans les cosmétiques est règlementée, voire interdite, dans plusieurs pays. Dans notre étude, nous avons déterminé les concentrations de ces ingrédients dans plusieurs produits utilisés en Afrique de l’Ouest et au Canada. Nous avons également exploré l’effet de ces produits sur le microbiome cutané. Nos résultats révèlent que 68 à 84% des crèmes et 7.5 à 65% des savons dépassent les normes lorsqu’on considère l’interdiction de mercure, d’hydroquinone et de propionate de clobétasol et les concentrations déclarées sur les étiquettes ne sont pas souvent fiables. Selon la diversité de Shannon, il semble y avoir plus d’équitabilité, et donc moins de dominance dans le groupe des femmes utilisant les crèmes éclaircissantes que dans le groupe des femmes qui ne les utilisent pas. Par ailleurs, nous n’avons pas trouvé de différences significatives au niveau du microbiome cutané du groupe avec crèmes et sans crèmes au niveau du phylum et du genre. Cependant, d’autres méthodes plus approfondies avec plus d’échantillonnage pourraient révéler à des échelles plus fines (espèces, souches, etc.) l’effet de ces produits sur le microbiome cutané.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Nous adaptons une heuristique de recherche à voisinage variable pour traiter le problème du voyageur de commerce avec fenêtres de temps (TSPTW) lorsque l'objectif est la minimisation du temps d'arrivée au dépôt de destination. Nous utilisons des méthodes efficientes pour la vérification de la réalisabilité et de la rentabilité d'un mouvement. Nous explorons les voisinages dans des ordres permettant de réduire l'espace de recherche. La méthode résultante est compétitive avec l'état de l'art. Nous améliorons les meilleures solutions connues pour deux classes d'instances et nous fournissons les résultats de plusieurs instances du TSPTW pour la première fois.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
De nombreux problèmes liés aux domaines du transport, des télécommunications et de la logistique peuvent être modélisés comme des problèmes de conception de réseaux. Le problème classique consiste à transporter un flot (données, personnes, produits, etc.) sur un réseau sous un certain nombre de contraintes dans le but de satisfaire la demande, tout en minimisant les coûts. Dans ce mémoire, on se propose d'étudier le problème de conception de réseaux avec coûts fixes, capacités et un seul produit, qu'on transforme en un problème équivalent à plusieurs produits de façon à améliorer la valeur de la borne inférieure provenant de la relaxation continue du modèle. La méthode que nous présentons pour la résolution de ce problème est une méthode exacte de branch-and-price-and-cut avec une condition d'arrêt, dans laquelle nous exploitons à la fois la méthode de génération de colonnes, la méthode de génération de coupes et l'algorithme de branch-and-bound. Ces méthodes figurent parmi les techniques les plus utilisées en programmation linéaire en nombres entiers. Nous testons notre méthode sur deux groupes d'instances de tailles différentes (gran-des et très grandes), et nous la comparons avec les résultats donnés par CPLEX, un des meilleurs logiciels permettant de résoudre des problèmes d'optimisation mathématique, ainsi qu’avec une méthode de branch-and-cut. Il s'est avéré que notre méthode est prometteuse et peut donner de bons résultats, en particulier pour les instances de très grandes tailles.
Resumo:
Dans ce mémoire, nous étudions un problème de tournées de véhicules dans lequel une flotte privée de véhicules n’a pas la capacité suffisante pour desservir les demandes des clients. Dans un tel cas, on fait appel à un transporteur externe. Ce dernier n’a aucune contrainte de capacité, mais un coût est encouru lorsqu’un client lui est affecté. Il n’est pas nécessaire de mettre tous les véhicules de la flotte privée en service si cette approche se révèle plus économique. L’objectif consiste à minimiser le coût fixe des véhicules, puis le coût variable de transport et le coût chargé par le transporteur externe. Notre travail consiste à appliquer la métaheuristique de recherche adaptative à grand voisinage sur ce problème. Nous comparons nos résultats avec ceux obtenus précédemment avec différentes techniques connues sur les instances de Christofides et celles de Golden.
Resumo:
Plusieurs décennies de recherche ont permis de mieux comprendre les effets de l’athérosclérose sur le système cardiovasculaire, d’améliorer la prévention et de développer des traitements efficaces. Les effets de l’athéroslérose sur le cerveau demeurent toutefois mal compris même si le lien entre le fonctionnement cognitif et la santé du système vasculaire est maintenant bien établi. La venue de nouvelles méthodes d’imagerie telle la microscopie laser à 2-photons (TPLM) permet d’étudier l’impact de certaines maladies sur la microvasculature cérébrale en mesurant le flux sanguin dans des vaisseaux uniques situés dans des régions cérébrales millimétriques sous la surface. Les résultats des études in vitro peuvent dorénavant être corrélés à ceux obtenus in vivo. En premier lieu, ce mémoire revoit la théorie ayant permis le développement de la TPLM qui permet de prendre des mesures hémodynamiques in vivo dans des vaisseaux de très petits calibres tels des capillaires cérébraux de souris. Par la suite, son utilisation est décrite chez des souris anesthésiées afin de comparer les mesures d’hémodynamie cérébrale tels la vitesse des globules rouges, le flux de globules rouges, le flux sanguin cérébral, l’hématocrite sanguin et le diamètre des vaisseaux. Finalement, nous avons comparé les données hémodynamiques entre des souris de 3 mois normales (WT ; n=6) et des souris atteintes d’athérosclérose précoce (ATX ; n=6). Les résultats obtenus sur un nombre total de 209 capillaires (103 pour les souris WT et 106 pour les souris ATX) démontrent que les souris ATX possèdent une vitesse des globules rouges (+40%) plus grande, un flux de globule rouge plus grand (+12%) et un flux capillaire plus élevé (+14%) sans démontrer pour aucun de ces paramètres, une différence statistiquement significative. L’hématocrite moyen (35±4% vs 33±2% ; p=0.71) et le diamètre moyen des vaisseaux (4.88±0.22μm vs 4.86±0.20μm ; p=0.23) étaient également comparables. La vitesse des globules rouges a démontré une faible corrélation avec le diamètre des vaisseaux (r=0.39) et avec le flux de globules rouges/seconde (r=0.59). En conclusion, les travaux menés dans le cadre de ce mémoire de maîtrise permettent d'envisager, grâce aux nouvelles méthodes d’imagerie cérébrale telle la TPLM, une meilleure compréhension des mécanismes hémodynamiques sous-jacents à la microcirculation cérébrale. L’effet d’une pression pulsée augmentée, tel que proposée dans l’athérosclérose reste cependant à démontrer avec cette méthode d’imagerie.
Resumo:
Les artéfacts métalliques entraînent un épaississement artéfactuel de la paroi des tuteurs en tomodensitométrie (TDM) avec réduction apparente de leur lumière. Cette étude transversale prospective, devis mesures répétées et observateurs avec méthode en aveugle, chez 24 patients consécutifs/71 tuteurs coronariens a pour objectif de comparer l’épaisseur de paroi des tuteurs en TDM après reconstruction par un algorithme avec renforcement des bords et un algorithme standard. Une angiographie coronarienne par TDM 256 coupes a été réalisée, avec reconstruction par algorithmes avec renforcement des bords et standard. L’épaisseur de paroi des tuteurs était mesurée par méthodes orthogonale (diamètres) et circonférentielle (circonférences). La qualité d’image des tuteurs était évaluée par échelle ordinale, et les données analysées par modèles linéaire mixte et régression logistique des cotes proportionnelles. L’épaisseur de paroi des tuteurs était inférieure avec l’algorithme avec renforcement des bords comparé à l’algorithme standard, avec les méthodes orthogonale (0,97±0,02 vs 1,09±0,03 mm, respectivement; p<0,001) et circonférentielle (1,13±0,02 vs 1,21±0,02 mm, respectivement; p<0,001). Le premier causait moins de surestimation par rapport à l’épaisseur nominale comparé au second, avec méthodes orthogonale (0,89±0,19 vs 1,00±0,26 mm, respectivement; p<0,001) et circonférentielle (1,06±0,26 vs 1,13±0,31 mm, respectivement; p=0,005) et diminuait de 6 % la surestimation. Les scores de qualité étaient meilleurs avec l’algorithme avec renforcement des bords (OR 3,71; IC 95% 2,33–5,92; p<0,001). En conclusion, la reconstruction des images avec l’algorithme avec renforcement des bords génère des parois de tuteurs plus minces, moins de surestimation, et de meilleurs scores de qualité d’image que l’algorithme standard.
Resumo:
Cette thèse contribue a la recherche vers l'intelligence artificielle en utilisant des méthodes connexionnistes. Les réseaux de neurones récurrents sont un ensemble de modèles séquentiels de plus en plus populaires capable en principe d'apprendre des algorithmes arbitraires. Ces modèles effectuent un apprentissage en profondeur, un type d'apprentissage machine. Sa généralité et son succès empirique en font un sujet intéressant pour la recherche et un outil prometteur pour la création de l'intelligence artificielle plus générale. Le premier chapitre de cette thèse donne un bref aperçu des sujets de fonds: l'intelligence artificielle, l'apprentissage machine, l'apprentissage en profondeur et les réseaux de neurones récurrents. Les trois chapitres suivants couvrent ces sujets de manière de plus en plus spécifiques. Enfin, nous présentons quelques contributions apportées aux réseaux de neurones récurrents. Le chapitre \ref{arxiv1} présente nos travaux de régularisation des réseaux de neurones récurrents. La régularisation vise à améliorer la capacité de généralisation du modèle, et joue un role clé dans la performance de plusieurs applications des réseaux de neurones récurrents, en particulier en reconnaissance vocale. Notre approche donne l'état de l'art sur TIMIT, un benchmark standard pour cette tâche. Le chapitre \ref{cpgp} présente une seconde ligne de travail, toujours en cours, qui explore une nouvelle architecture pour les réseaux de neurones récurrents. Les réseaux de neurones récurrents maintiennent un état caché qui représente leurs observations antérieures. L'idée de ce travail est de coder certaines dynamiques abstraites dans l'état caché, donnant au réseau une manière naturelle d'encoder des tendances cohérentes de l'état de son environnement. Notre travail est fondé sur un modèle existant; nous décrivons ce travail et nos contributions avec notamment une expérience préliminaire.