11 resultados para Re-ranking methods
em Université de Montréal, Canada
Resumo:
Each item in a given collection is characterized by a set of possible performances. A (ranking) method is a function that assigns an ordering of the items to every performance profile. Ranking by Rating consists in evaluating each item’s performance by using an exogenous rating function, and ranking items according to their performance ratings. Any such method is separable: the ordering of two items does not depend on the performances of the remaining items. We prove that every separable method must be of the ranking-by-rating type if (i) the set of possible performances is the same for all items and the method is anonymous, or (ii) the set of performances of each item is ordered and the method is monotonic. When performances are m-dimensional vectors, a separable, continuous, anonymous, monotonic, and invariant method must rank items according to a weighted geometric mean of their performances along the m dimensions.
Resumo:
A set ranking method assigns to each tournament on a given set an ordering of the subsets of that set. Such a method is consistent if (i) the items in the set are ranked in the same order as the sets of items they beat and (ii) the ordering of the items fully determines the ordering of the sets of items. We describe two consistent set ranking methods.
Resumo:
Lors du transport du bois de la forêt vers les usines, de nombreux événements imprévus peuvent se produire, événements qui perturbent les trajets prévus (par exemple, en raison des conditions météo, des feux de forêt, de la présence de nouveaux chargements, etc.). Lorsque de tels événements ne sont connus que durant un trajet, le camion qui accomplit ce trajet doit être détourné vers un chemin alternatif. En l’absence d’informations sur un tel chemin, le chauffeur du camion est susceptible de choisir un chemin alternatif inutilement long ou pire, qui est lui-même "fermé" suite à un événement imprévu. Il est donc essentiel de fournir aux chauffeurs des informations en temps réel, en particulier des suggestions de chemins alternatifs lorsqu’une route prévue s’avère impraticable. Les possibilités de recours en cas d’imprévus dépendent des caractéristiques de la chaîne logistique étudiée comme la présence de camions auto-chargeurs et la politique de gestion du transport. Nous présentons trois articles traitant de contextes d’application différents ainsi que des modèles et des méthodes de résolution adaptés à chacun des contextes. Dans le premier article, les chauffeurs de camion disposent de l’ensemble du plan hebdomadaire de la semaine en cours. Dans ce contexte, tous les efforts doivent être faits pour minimiser les changements apportés au plan initial. Bien que la flotte de camions soit homogène, il y a un ordre de priorité des chauffeurs. Les plus prioritaires obtiennent les volumes de travail les plus importants. Minimiser les changements dans leurs plans est également une priorité. Étant donné que les conséquences des événements imprévus sur le plan de transport sont essentiellement des annulations et/ou des retards de certains voyages, l’approche proposée traite d’abord l’annulation et le retard d’un seul voyage, puis elle est généralisée pour traiter des événements plus complexes. Dans cette ap- proche, nous essayons de re-planifier les voyages impactés durant la même semaine de telle sorte qu’une chargeuse soit libre au moment de l’arrivée du camion à la fois au site forestier et à l’usine. De cette façon, les voyages des autres camions ne seront pas mo- difiés. Cette approche fournit aux répartiteurs des plans alternatifs en quelques secondes. De meilleures solutions pourraient être obtenues si le répartiteur était autorisé à apporter plus de modifications au plan initial. Dans le second article, nous considérons un contexte où un seul voyage à la fois est communiqué aux chauffeurs. Le répartiteur attend jusqu’à ce que le chauffeur termine son voyage avant de lui révéler le prochain voyage. Ce contexte est plus souple et offre plus de possibilités de recours en cas d’imprévus. En plus, le problème hebdomadaire peut être divisé en des problèmes quotidiens, puisque la demande est quotidienne et les usines sont ouvertes pendant des périodes limitées durant la journée. Nous utilisons un modèle de programmation mathématique basé sur un réseau espace-temps pour réagir aux perturbations. Bien que ces dernières puissent avoir des effets différents sur le plan de transport initial, une caractéristique clé du modèle proposé est qu’il reste valable pour traiter tous les imprévus, quelle que soit leur nature. En effet, l’impact de ces événements est capturé dans le réseau espace-temps et dans les paramètres d’entrée plutôt que dans le modèle lui-même. Le modèle est résolu pour la journée en cours chaque fois qu’un événement imprévu est révélé. Dans le dernier article, la flotte de camions est hétérogène, comprenant des camions avec des chargeuses à bord. La configuration des routes de ces camions est différente de celle des camions réguliers, car ils ne doivent pas être synchronisés avec les chargeuses. Nous utilisons un modèle mathématique où les colonnes peuvent être facilement et naturellement interprétées comme des itinéraires de camions. Nous résolvons ce modèle en utilisant la génération de colonnes. Dans un premier temps, nous relaxons l’intégralité des variables de décision et nous considérons seulement un sous-ensemble des itinéraires réalisables. Les itinéraires avec un potentiel d’amélioration de la solution courante sont ajoutés au modèle de manière itérative. Un réseau espace-temps est utilisé à la fois pour représenter les impacts des événements imprévus et pour générer ces itinéraires. La solution obtenue est généralement fractionnaire et un algorithme de branch-and-price est utilisé pour trouver des solutions entières. Plusieurs scénarios de perturbation ont été développés pour tester l’approche proposée sur des études de cas provenant de l’industrie forestière canadienne et les résultats numériques sont présentés pour les trois contextes.
Resumo:
En marge des recherches archéologiques traditionnelles, nous retrouvons aujourd’hui des compagnies privées qui contractent des accords et obtiennent des permis leur donnant le droit de prélever des objets à des fins lucratives sur les vestiges archéologiques submergés. Ces pratiques commerciales causent une controverse vive et enflammée au sein du monde archéologique. Le principal point de litiges concerne la mise en vente des objets extraits lors de fouille. La mise en marché du patrimoine archéologique éveille les fibres protectionnistes. Cela incite certains organismes à poser des gestes pour la protection du patrimoine. C’est le cas pour l’UNESCO qui fait la promotion depuis 2001 d’une Convention pour la protection du patrimoine submergé. Malgré tous les arguments à l’encontre des compagnies de « chasse aux trésors », cette Convention est loin de faire l’unanimité des gouvernements à travers le monde, qui ne semblent pas prêts à rendre ces pratiques illégales. Les méthodes utilisées par ces compagnies semblent aussi représenter un point de friction avec les archéologues. Toutefois, la connaissance de leurs pratiques sur le terrain semble très incomplète. De plus, contrairement à une certaine idée préconçue, ces compagnies ne sont pas des « pilleurs de tombes » œuvrant sous le couvert de l’anonymat, mais bien des compagnies dûment enregistrées, œuvrant en toute légalité et passant même des contrats avec les gouvernements. Ce mémoire a donc pour objectif de mettre en lumière les actions réelles des compagnies de chasse aux trésors subaquatiques en regardant leurs méthodes et leur fonctionnement, tels qu’on les voit dans les 10 dernières années. Pour mieux conceptualiser les pratiques de ces compagnies, nous nous interrogerons sur le rapport entre légalité et éthique et, plus précisément, sur l’éthique commerciale et archéologique.
Resumo:
Les données sont analysées par le logiciel conçu par François Courtemanche et Féthi Guerdelli. L'expérimentation des jeux a eu lieu au Laboratoire de recherche en communication multimédia de l'Université de Montréal.
Resumo:
Cette thèse porte sur la reconstruction active de modèles 3D à l’aide d’une caméra et d’un projecteur. Les méthodes de reconstruction standards utilisent des motifs de lumière codée qui ont leurs forces et leurs faiblesses. Nous introduisons de nouveaux motifs basés sur la lumière non structurée afin de pallier aux manques des méthodes existantes. Les travaux présentés s’articulent autour de trois axes : la robustesse, la précision et finalement la comparaison des patrons de lumière non structurée aux autres méthodes. Les patrons de lumière non structurée se différencient en premier lieu par leur robustesse aux interréflexions et aux discontinuités de profondeur. Ils sont conçus de sorte à homogénéiser la quantité d’illumination indirecte causée par la projection sur des surfaces difficiles. En contrepartie, la mise en correspondance des images projetées et capturées est plus complexe qu’avec les méthodes dites structurées. Une méthode d’appariement probabiliste et efficace est proposée afin de résoudre ce problème. Un autre aspect important des reconstructions basées sur la lumière non structurée est la capacité de retrouver des correspondances sous-pixels, c’est-à-dire à un niveau de précision plus fin que le pixel. Nous présentons une méthode de génération de code de très grande longueur à partir des motifs de lumière non structurée. Ces codes ont l’avantage double de permettre l’extraction de correspondances plus précises tout en requérant l’utilisation de moins d’images. Cette contribution place notre méthode parmi les meilleures au niveau de la précision tout en garantissant une très bonne robustesse. Finalement, la dernière partie de cette thèse s’intéresse à la comparaison des méthodes existantes, en particulier sur la relation entre la quantité d’images projetées et la qualité de la reconstruction. Bien que certaines méthodes nécessitent un nombre constant d’images, d’autres, comme la nôtre, peuvent se contenter d’en utiliser moins aux dépens d’une qualité moindre. Nous proposons une méthode simple pour établir une correspondance optimale pouvant servir de référence à des fins de comparaison. Enfin, nous présentons des méthodes hybrides qui donnent de très bons résultats avec peu d’images.
Resumo:
Ce mémoire de maîtrise porte principalement sur les œuvres des artistes Sophie Calle, Sylvie Cotton, Donigan Cumming, Martin Dufrasne et Marc-Antoine K. Phaneuf. L’objectif de cette recherche est d’observer les différents allers-retours qu’ils effectuent dans leur pratique entre la sphère privée et la sphère publique et qui problématisent notre rapport à l’intimité. Dans le premier chapitre, je déterminerai ce qui caractérise respectivement l’espace public et l’espace privé, pour ensuite cibler les lieux et les figures de l’intime. Dans le deuxième chapitre, seront étudiés les gestes et les méthodes d’appropriation de la sphère privée par les artistes à l’aide de la pratique de la collection, la pratique ethnographique ainsi que la pratique de la surveillance. L’impact de ces pratiques sur l’investissement de l’artiste dans la durée est relevé, ainsi que leur inscription dans un art dit contextuel. Enfin, je terminerai par une réflexion sur ma propre pratique, en considérant ce qui l’apparente et la distingue des artistes étudiés dans celui-ci.
Resumo:
La station 3-avant de Pointe-du-Buisson (Beauharnois, Haut-Saint-Laurent, Québec) représente la plus importante collection de récipients de terre cuite datant du Sylvicole moyen ancien (-400 à 500 de notre ère) dans le Nord-Est américain. De plus, on trouve sur ce site une série continue d’occupations couvrant l’ensemble de la période Sylvicole. En dépit de complications d’ordre stratigraphique (terreau homogène et pédoturbations), des concepts et des méthodes évolutionnaires tirés de la théorie de l’hérédité duelle sont appliqués à l’étude de cet assemblage. D’un point de vue anthropologique, que nous apprend l’étude de l’évolution et de la transmission des savoir-faire d’une technologie que nous assumons exclusivement féminine au cours de la période Sylvicole? L’auteur défend que l’archéologie évolutionnaire permet de détecter le contexte de la transmission, c’est-à-dire l’organisation socioéconomique des populations du passé. L’examen des traits stylistiques suggère que la sédentarisation estivale des bandes amérindiennes à partir du Sylvicole moyen tardif favorise une homogénéisation des productions céramiques dans un contexte virilocal qui est la conséquence d’une transmission de type conformiste opérant sur un axe horizontal (entre pairs). Cependant, le passage probable des tribus iroquoiennes à l’uxorilocalité et à la matrilinéarité à la fin du Sylvicole se traduit par une saisissante hétérogénéisation des pots, qui s’explique possiblement par une sélection de marqueurs identitaire d’ordre clanique (transmission verticale entre parents et descendants). L’étude des traits techno-fonctionnels indique une diversification de la vaisselle de terre cuite à mesure que les populations intensifient leurs expériences sur les cultigènes. Dans l’ensemble, cette évolution trahit une attention accrue conférée à la performance des pots en tant que récipients culinaires. Par ailleurs, le concours de la sériation et de datations AMS permet la reconnaisance d’un taxon « Sylvicole moyen moyen » caractérisé par une modification morphologique et décorative des vases. Une enquête comparative portant sur un échantillon de 27 sites archéologiques de l’horizon Pseudo-scallop-shell démontre que la variation populationnelle est structurée en fonction de la localisation des communautés dans un bassin hydrographique spécifique. Par conséquent, l’auteur soumet des pistes en vue de l’élaboration d’une taxonomie robuste et propre au Sylvicole moyen ancien et au Sylvicole moyen moyen. Enfin, des indices de natures diverses (archéologiques, paléoethnobotaniques, ethnolinguistiques, paléoanthropologiques, et d’autres issus de la génétique des populations) suggèrent une identité proto-algonquienne des bandes des deux sous-périodes susmentionnées.
Resumo:
Objectif : Cette thèse a pour but de préciser les mécanismes neuropsychologiques de la douleur, de la régulation endogène de la douleur et de l'hypoalgésie induite psychologiquement (HIP) par la synthèse de près de trente ans de recherche imagerie cérébrale fonctionnelle. Méthodologie : Étant donné l'abondance des études sur le sujet et le manque d'intégration de leurs résultats, la technique de métaanalyse quantitative basée sur les coordonnées d'activation cérébrale fut privilégiée dans cette thèse, telle qu’implémentée dans l'algorithme ALE (Activation Likelyhood Estimate). Une force supplémentaire de cette thèse repose sur la rigueur du processus de sélection des articles. En effet, les études incluses dans les métaanalyses devaient satisfaire des critères stricts d'inclusion, ceci dans le but de favoriser la précision et la validité des conclusions subséquentes. Étude 1 : Le premier article visait à identifier les aires cérébrales impliquées dans la réduction de la douleur par des méthodes psychologiques d'interventions. Les articles retenus portent sur une variété de méthodes d'intervention, telles que le placebo, l'hypnose, la méditation, la perception de contrôle sur la stimulation douloureuse et l'induction d'émotions. Les résultats indiquent que l'HIP implique un vaste réseau d'activation qui comprend le cortex cingulaire antérieur, l'insula antérieure, les zones orbitofrontale et préfrontale latérale, ainsi que les régions pariétale, temporale et souscorticales. Ces activations reflèteraient l'implication des mécanismes neuropsychologiques cognitifs et émotionnels sous-tendent les interventions psychologiques ciblées par ces études, incluant la conscience de soi et la motivation. De plus, les divergences de patron d'activation entre les approches ont été explorées, notamment pour le placebo et la distraction. Étude 2 : Le deuxième article a identifié des patrons d'activations préférentiellement associés à la perception de la douleur, à l'HIP, ainsi que des activations communément associées à la douleur et l'HIP. Les résultats indiquent que 1) la perception de la douleur est associée à l'activation d'aires somatosensorielles et motrices, ce qui pourrait être le reflet de la préparation d'une action adaptative, 2) l'HIP est liée à l'engagement de régions préfrontales antéromédianes et orbitales, possiblement en lien avec des processus motivationnels et émotionnels, et 3) la douleur et l'HIP sont associés à l'activation d'aires préfrontales dorsolatérales, de l'insula antérieure et du cortex cingulaire moyen, ce qui pourrait refléter l'engagement spontané pendant la douleur de mécanismes endogènes de régulation descendante. Conclusion : Par ces études, cette thèse fait le point sur les mécanismes cérébraux impliqués différentiellement dans la perception de la douleur, dans sa régulation endogène et dans l'hypoalgésie induite psychologiquement.
Resumo:
Les moteurs de recherche font partie de notre vie quotidienne. Actuellement, plus d’un tiers de la population mondiale utilise l’Internet. Les moteurs de recherche leur permettent de trouver rapidement les informations ou les produits qu'ils veulent. La recherche d'information (IR) est le fondement de moteurs de recherche modernes. Les approches traditionnelles de recherche d'information supposent que les termes d'indexation sont indépendants. Pourtant, les termes qui apparaissent dans le même contexte sont souvent dépendants. L’absence de la prise en compte de ces dépendances est une des causes de l’introduction de bruit dans le résultat (résultat non pertinents). Certaines études ont proposé d’intégrer certains types de dépendance, tels que la proximité, la cooccurrence, la contiguïté et de la dépendance grammaticale. Dans la plupart des cas, les modèles de dépendance sont construits séparément et ensuite combinés avec le modèle traditionnel de mots avec une importance constante. Par conséquent, ils ne peuvent pas capturer correctement la dépendance variable et la force de dépendance. Par exemple, la dépendance entre les mots adjacents "Black Friday" est plus importante que celle entre les mots "road constructions". Dans cette thèse, nous étudions différentes approches pour capturer les relations des termes et de leurs forces de dépendance. Nous avons proposé des méthodes suivantes: ─ Nous réexaminons l'approche de combinaison en utilisant différentes unités d'indexation pour la RI monolingue en chinois et la RI translinguistique entre anglais et chinois. En plus d’utiliser des mots, nous étudions la possibilité d'utiliser bi-gramme et uni-gramme comme unité de traduction pour le chinois. Plusieurs modèles de traduction sont construits pour traduire des mots anglais en uni-grammes, bi-grammes et mots chinois avec un corpus parallèle. Une requête en anglais est ensuite traduite de plusieurs façons, et un score classement est produit avec chaque traduction. Le score final de classement combine tous ces types de traduction. Nous considérons la dépendance entre les termes en utilisant la théorie d’évidence de Dempster-Shafer. Une occurrence d'un fragment de texte (de plusieurs mots) dans un document est considérée comme représentant l'ensemble de tous les termes constituants. La probabilité est assignée à un tel ensemble de termes plutôt qu’a chaque terme individuel. Au moment d’évaluation de requête, cette probabilité est redistribuée aux termes de la requête si ces derniers sont différents. Cette approche nous permet d'intégrer les relations de dépendance entre les termes. Nous proposons un modèle discriminant pour intégrer les différentes types de dépendance selon leur force et leur utilité pour la RI. Notamment, nous considérons la dépendance de contiguïté et de cooccurrence à de différentes distances, c’est-à-dire les bi-grammes et les paires de termes dans une fenêtre de 2, 4, 8 et 16 mots. Le poids d’un bi-gramme ou d’une paire de termes dépendants est déterminé selon un ensemble des caractères, en utilisant la régression SVM. Toutes les méthodes proposées sont évaluées sur plusieurs collections en anglais et/ou chinois, et les résultats expérimentaux montrent que ces méthodes produisent des améliorations substantielles sur l'état de l'art.
Resumo:
Corteo is a program that implements Monte Carlo (MC) method to simulate ion beam analysis (IBA) spectra of several techniques by following the ions trajectory until a sufficiently large fraction of them reach the detector to generate a spectrum. Hence, it fully accounts for effects such as multiple scattering (MS). Here, a version of Corteo is presented where the target can be a 2D or 3D image. This image can be derived from micrographs where the different compounds are identified, therefore bringing extra information into the solution of an IBA spectrum, and potentially significantly constraining the solution. The image intrinsically includes many details such as the actual surface or interfacial roughness, or actual nanostructures shape and distribution. This can for example lead to the unambiguous identification of structures stoichiometry in a layer, or at least to better constraints on their composition. Because MC computes in details the trajectory of the ions, it simulates accurately many of its aspects such as ions coming back into the target after leaving it (re-entry), as well as going through a variety of nanostructures shapes and orientations. We show how, for example, as the ions angle of incidence becomes shallower than the inclination distribution of a rough surface, this process tends to make the effective roughness smaller in a comparable 1D simulation (i.e. narrower thickness distribution in a comparable slab simulation). Also, in ordered nanostructures, target re-entry can lead to replications of a peak in a spectrum. In addition, bitmap description of the target can be used to simulate depth profiles such as those resulting from ion implantation, diffusion, and intermixing. Other improvements to Corteo include the possibility to interpolate the cross-section in angle-energy tables, and the generation of energy-depth maps.