955 resultados para Invoice matching
Resumo:
Dans cette thèse, nous présentons les problèmes d’échange de documents d'affaires et proposons une méthode pour y remédier. Nous proposons une méthodologie pour adapter les standards d’affaires basés sur XML aux technologies du Web sémantique en utilisant la transformation des documents définis en DTD ou XML Schema vers une représentation ontologique en OWL 2. Ensuite, nous proposons une approche basée sur l'analyse formelle de concept pour regrouper les classes de l'ontologie partageant une certaine sémantique dans le but d'améliorer la qualité, la lisibilité et la représentation de l'ontologie. Enfin, nous proposons l’alignement d'ontologies pour déterminer les liens sémantiques entre les ontologies d'affaires hétérogènes générés par le processus de transformation pour aider les entreprises à communiquer fructueusement.
Resumo:
We study a general class of priority-based allocation problems with weak priority orders and identify conditions under which there exists a strategy-proof mechanism which always chooses an agent-optimal stable, or constrained efficient, matching. A priority structure for which these two requirements are compatible is called solvable. For the general class of priority-based allocation problems with weak priority orders,we introduce three simple necessary conditions on the priority structure. We show that these conditions completely characterize solvable environments within the class of indifferences at the bottom (IB) environments, where ties occur only at the bottom of the priority structure. This generalizes and unifies previously known results on solvable and unsolvable environments established in school choice, housing markets and house allocation with existing tenants. We show how the previously known solvable cases can be viewed as extreme cases of solvable environments. For sufficiency of our conditions we introduce a version of the agent-proposing deferred acceptance algorithm with exogenous and preference-based tie-breaking.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Réalisée en cotutelle avec l'Unité de Formation à la Recherche Lettres Arts et Sciences Humaines - Université Nice-Sophia Antipolis.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Cette recherche s’intéresse aux formes et à la capacité des associations patronales à façonner les règles du travail au niveau sectoriel, plus précisément dans le secteur de l’hôtellerie au Québec. Elle vise également à mieux comprendre comment ces règles contribuent à modifier les pratiques locales en relations industrielles de leurs entreprises membres. Notre première question de recherche vise donc à cerner l’impact des logiques de représentation et d’action des associations patronales sur les pratiques en relations industrielles. Pour certains auteurs, notamment Behrens et Traxler (2004 et 2007), Carley et al. (2010), Charest, Laroche et Hickey (à paraître), les logiques de représentation et d’action chez les acteurs patronaux se distinguent l’une de l’autre et influencent de manière différente les pratiques en relations industrielles. Ainsi, la présence, la forme et le rôle d’une association patronale auront un impact significatif sur les pratiques en relations industrielles, car les membres peuvent être influencés par les orientations de leurs associations. Notre seconde question de recherche aborde la manière dont les entreprises membres utilisent leurs ressources de pouvoir afin d’influencer les actions des associations patronales. La littérature existante à ce sujet mentionne que les acteurs patronaux détenant plusieurs ressources de pouvoir, qu’elles soient internes ou externes (Charest, Laroche et Hickey, à paraître; Laroche et Hickey, à paraître), sont en mesure d’exercer une influence dans les institutions politiques. Nous tenterons donc de vérifier si, plus une association patronale sera en mesure de mobiliser ses ressources de pouvoir, plus elle sera apte à influencer le contexte institutionnel dans lequel elle agit. Au plan théorique, cette recherche s’appuie sur les idées développées par les théories néo-institutionnalistes. D’une part, nous reconnaissons que les acteurs doivent réagir et s’adapter aux changements qui s’opèrent au sein de leur environnement. Ils développeront donc des stratégies diverses, autant en matière de coordination des actions patronales que de relations du travail au niveau local, en fonction de leur interprétation de ces transformations (Traxler et Huemer, 2007). D’autre part, nous reconnaissons que les acteurs sont aussi en mesure de mobiliser leurs ressources de pouvoir pour déployer des initiatives stratégiques qui seront susceptibles de provoquer en retour des changements au sein de leur environnement (Crouch, 2005). Ces entrepreneurs institutionnels sont ainsi à la recherche active d’opportunités et de leviers de pouvoir à utiliser pour maximiser leurs intérêts respectifs et, par le fait même, réduire les incertitudes issues de leur environnement (Campbell, 2004; Streeck et Thelen, 2005; Crouch, 2005). Notre recherche reconnaît également que les acteurs qui détiennent le plus grand pouvoir au sein d’un groupe, soient les porteurs de projets, vont être en mesure de façonner les institutions en fonction de leurs intérêts spécifiques (Thelen, 2003). C’est d’ailleurs sur ce plan que notre recherche veut se démarquer des travaux plus larges dans laquelle elle s’insère. Au plan empirique, cette recherche étudie l’acteur patronal dans l’industrie de l’hôtellerie au Québec et vise trois objectifs : 1) faire la cartographie des associations patronales dans le secteur de l’hôtellerie au Québec (formes, structures, activités, missions, etc.); 2) analyser l’impact des règles issues du processus de régulation au niveau sectoriel sur les pratiques de relations du travail locales; et 3) identifier les employeurs dominants au sein du secteur et analyser de quelle manière ils parviennent à modifier les institutions et l’environnement dans lequel ils agissent. Pour atteindre nos objectifs de recherche, nous avons utilisé une méthodologie qualitative de recherche, et plus particulièrement l’étude de cas. Cette dernière a été conduite en trois étapes : la préparation, la collecte des données et l’interprétation (Merriam, 1998). Les données de cette étude ont été recueillies à l’automne 2011, par le biais d’entrevues semi-dirigées auprès de gestionnaires d’hôtels et d’associations hôtelières dans les régions de Québec et de Montréal. Une analyse qualitative du contenu de ces entrevues a été effectuée en lien avec la revue de littérature et nos propositions de recherche. À cette fin, nous avons utilisé la technique de l’appariement logique de Yin (1994), ce qui nous a permis de comparer nos observations à nos propositions de recherche. Il est à noter que puisque cette recherche est une étude de cas, cette dernière présente des limites méthodologiques surtout liées à la généralisation des résultats. Ainsi, il est très difficile d’affirmer que les résultats de cette microanalyse soient généralisables. En contrepartie, les analyses ont servi à consolider le modèle pour utilisation dans des études futures.
Resumo:
Les structures avec des lieurs sont très communes en informatique. Les langages de programmation et les systèmes logiques sont des exemples de structures avec des lieurs. La manipulation de lieurs est délicate, de sorte que l’écriture de programmes qui ma- nipulent ces structures tirerait profit d’un soutien spécifique pour les lieurs. L’environ- nement de programmation Beluga est un exemple d’un tel système. Nous développons et présentons ici un compilateur pour ce système. Parmi les programmes pour lesquels Beluga est spécialement bien adapté, plusieurs peuvent bénéficier d’un compilateur. Par exemple, les programmes pour valider les types (les "type-checkers"), les compilateurs et les interpréteurs tirent profit du soutien spécifique des lieurs et des types dépendants présents dans le langage. Ils nécessitent tous également une exécution efficace, que l’on propose d’obtenir par le biais d’un compilateur. Le but de ce travail est de présenter un nouveau compilateur pour Beluga, qui emploie une représentation interne polyvalente et permet de partager du code entre plusieurs back-ends. Une contribution notable est la compilation du filtrage de Beluga, qui est particulièrement puissante dans ce langage.
Resumo:
Single-plateaued preferences generalize single-peaked preferences by allowing for multiple best elements. These preferences have played an important role in areas such as voting, strategy-proofness and matching problems. We examine the notion of singleplateauedness in a choice-theoretic setting. Single-plateaued choice is characterized by means of a collinear interval continuity property in the presence of independence of irrelevant alternatives. Further results establish that our notion of single-plateauedness conforms to the motivation underlying the term and we analyze the consequences of alternative continuity properties. The importance of basic assumptions such as closedness and convexity is discussed. Journal of Economic Literature Classification Nos.: D11, D71.
Resumo:
Single-plateaued preferences generalize single-peaked preferences by allowing for multiple best elements. These preferences have played an important role in areas such as voting, strategy-proofness and matching problems. We examine the notion of single-plateauedness in a choice-theoretic setting. Single-plateaued choice is characterized by means of a collinear interval continuity property in the presence of independence of irrelevant alternatives. Further results establish that our notion of single-plateauedness conforms to the motivation underlying the term and we analyze the consequences of alternative continuity properties. The importance of basic assumptions such as closedness and convexity is discussed. Journal of Economic Literature Classification Nos.: D11, D71.
Resumo:
La vidéosurveillance a pour objectif principal de protéger les personnes et les biens en détectant tout comportement anormal. Ceci ne serait possible sans la détection de mouvement dans l’image. Ce processus complexe se base le plus souvent sur une opération de soustraction de l’arrière-plan statique d’une scène sur l’image. Mais il se trouve qu’en vidéosurveillance, des caméras sont souvent en mouvement, engendrant ainsi, un changement significatif de l’arrière-plan; la soustraction de l’arrière-plan devient alors problématique. Nous proposons dans ce travail, une méthode de détection de mouvement et particulièrement de chutes qui s’affranchit de la soustraction de l’arrière-plan et exploite la rotation de la caméra dans la détection du mouvement en utilisant le calcul homographique. Nos résultats sur des données synthétiques et réelles démontrent la faisabilité de cette approche.
Resumo:
L'objectif principal de ce travail est d’étudier en profondeur certaines techniques biostatistiques avancées en recherche évaluative en chirurgie cardiaque adulte. Les études ont été conçues pour intégrer les concepts d'analyse de survie, analyse de régression avec “propensity score”, et analyse de coûts. Le premier manuscrit évalue la survie après la réparation chirurgicale de la dissection aigüe de l’aorte ascendante. Les analyses statistiques utilisées comprennent : analyses de survie avec régression paramétrique des phases de risque et d'autres méthodes paramétriques (exponentielle, Weibull), semi-paramétriques (Cox) ou non-paramétriques (Kaplan-Meier) ; survie comparée à une cohorte appariée pour l’âge, le sexe et la race utilisant des tables de statistiques de survie gouvernementales ; modèles de régression avec “bootstrapping” et “multinomial logit model”. L'étude a démontrée que la survie s'est améliorée sur 25 ans en lien avec des changements dans les techniques chirurgicales et d’imagerie diagnostique. Le second manuscrit est axé sur les résultats des pontages coronariens isolés chez des patients ayant des antécédents d'intervention coronarienne percutanée. Les analyses statistiques utilisées comprennent : modèles de régression avec “propensity score” ; algorithme complexe d'appariement (1:3) ; analyses statistiques appropriées pour les groupes appariés (différences standardisées, “generalized estimating equations”, modèle de Cox stratifié). L'étude a démontrée que l’intervention coronarienne percutanée subie 14 jours ou plus avant la chirurgie de pontages coronariens n'est pas associée à des résultats négatifs à court ou long terme. Le troisième manuscrit évalue les conséquences financières et les changements démographiques survenant pour un centre hospitalier universitaire suite à la mise en place d'un programme de chirurgie cardiaque satellite. Les analyses statistiques utilisées comprennent : modèles de régression multivariée “two-way” ANOVA (logistique, linéaire ou ordinale) ; “propensity score” ; analyses de coûts avec modèles paramétriques Log-Normal. Des modèles d’analyse de « survie » ont également été explorés, utilisant les «coûts» au lieu du « temps » comme variable dépendante, et ont menés à des conclusions similaires. L'étude a démontrée que, après la mise en place du programme satellite, moins de patients de faible complexité étaient référés de la région du programme satellite au centre hospitalier universitaire, avec une augmentation de la charge de travail infirmier et des coûts.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
Bien que ce soit un procédé industriel répandu, les films de copolymères à blocs préparés par trempage (« dip-coating ») sont moins étudiés que ceux obtenus par tournette (« spin-coating »). Pourtant, il est possible grâce à cette technique de contrôler précisément les caractéristiques de ces films. Au-delà de la méthode de fabrication, la capacité de modifier la morphologie des films trempés à l’aide d’autres facteurs externes est un enjeu primordial pour leur utilisation dans les nanotechnologies. Nous avons choisi, ici, d’étudier l’influence d’une petite molécule sur la morphologie de films supramoléculaires réalisés par « dip-coating » à partir de solutions de poly(styrène-b-4-vinyl pyridine) (PS-P4VP) dans le tétrahydrofurane (THF). En présence de 1-naphtol (NOH) et d’1-acide napthoïque (NCOOH), qui se complexent par pont hydrogène au bloc P4VP, ces films donnent, respectivement, une morphologie en nodules (sphères) et en stries (cylindres horizontaux). Des études par spectroscopie infrarouge ont permis de mesurer la quantité de petite molécule dans ces films minces, qui varie avec la vitesse de retrait mais qui s’avère être identique pour les deux petites molécules, à une vitesse de retrait donnée. Cependant, des études thermiques ont montré qu’une faible fraction de petite molécule est dispersée dans le PS (davantage de NOH que de NCOOH à cause de la plus faible liaison hydrogène du premier). La vitesse de retrait est un paramètre clé permettant de contrôler à la fois l’épaisseur et la composition du film supramoléculaire. L’évolution de l’épaisseur peut être modélisée par deux régimes récemment découverts. Aux faibles vitesses, l’épaisseur décroît (régime de capillarité), atteint un minimum, puis augmente aux vitesses plus élevées (régime de drainage). La quantité de petite molécule augmente aux faibles vitesses pour atteindre un plateau correspondant à la composition de la solution aux vitesses les plus élevées. Des changements de morphologie, à la fois liés à l’épaisseur et à la quantité de petite molécule, sont alors observés lorsque la vitesse de retrait est modifiée. Le choix du solvant est aussi primordial dans le procédé de « dip-coating » et a été étudié en utilisant le chloroforme, qui est un bon solvant pour les deux blocs. Il s’avère qu’à la fois la composition ainsi que la morphologie des films de PS-P4VP complexés sont différentes par rapport aux expériences réalisées dans le THF. Premièrement, la quantité de petite molécule reste constante avec la vitesse de retrait mais les films sont plus riches en NCOOH qu’en NOH. Deuxièmement, la morphologie des films contenant du NOH présente des stries ainsi que des lamelles à plat, tandis que seules ces dernières sont observables pour le NCOOH. Ce comportement est essentiellement dû à la quantité différente de petite molécule modulée par leur force de complexation différente avec le P4VP dans le chloroforme. Enfin, ces films ont été utilisés pour l’adsorption contrôlée de nanoparticules d’or afin de guider leur organisation sur des surfaces recouvertes de PS-P4VP. Avant de servir comme gabarits, un recuit en vapeurs de solvant permet soit d’améliorer l’ordre à longue distance des nodules de P4VP, soit de modifier la morphologie des films selon le solvant utilisé (THF ou chloroforme). Ils peuvent être ensuite exposés à une solution de nanoparticules d’or de 15 nm de diamètre qui permet leur adsorption sélective sur les nodules (ou stries) de P4VP.
Resumo:
Cette recherche s'intéresse à l'acteur patronal organisé, encore peu étudié en Amérique du Nord. Pourtant, cet acteur est fortement organisé au Québec et il exerce une influence reconnue sur les politiques publiques et les relations industrielles. Cette recherche vise à mieux comprendre la logique d’action des employeurs et les lieux où ils exercent leur influence. Plus important encore, la recherche s’interroge sur les mécanismes de diffusion utilisés par les associations patronales pour transmettre à leurs membres des orientations et des lignes directrices à adopter. Tout comme pour l’acteur syndical qui doit développer sa capacité représentative (Dufour, Hege, Levesque et Murray, 2009), nous croyons qu’il en est de même pour l’acteur patronal. Bref, cette étude cherche à comprendre comment les associations patronales vont s'assurer que leurs membres adoptent des pratiques en lien avec les positions défendues dans les institutions du marché du travail et dans la sphère des politiques publiques. Notre question de recherche est la suivante : Quels sont les mécanismes développés par les associations patronales pour diffuser leurs orientations en matière de politiques publiques et de relations du travail en vue d’influencer les pratiques locales de gestion de leurs membres? Au plan théorique, cette étude mobilise les idées développées par les approches néo-institutionnalistes pour mieux expliquer comment les acteurs vont utiliser les institutions en place pour façonner les règles dans leurs intérêts, ce qui suppose d’abord une capacité de représentation et une cohérence dans les actions entre les niveaux où se situent l’acteur. On cherche à comprendre comment les associations peuvent coordonner les actions patronales en réaction aux changements qui s’opèrent dans l’environnement institutionnel. Les associations patronales sont des entrepreneurs institutionnels (Crouch, 2005) qui sont à la recherche active d’opportunités et de leviers de pouvoir à utiliser pour maximiser leurs intérêts de leurs membres et par la même occasion, réduire les incertitudes en provenance de l’environnement (Campbell, 2004; Streeck et Thelen, 2005; Crouch, 2005). Toujours au niveau théorique, cette étude se base sur les idées avancées par la sociologie des logiques d’action. Cette approche théorique nous permet de rendre compte des niveaux sectoriel et local où s’enracinent les comportements des employeurs. Au niveau sectoriel, il existe une pluralité d’instances qui contribuent à façonner les logiques d’actions des associations patronales. La sociologie des logiques d’actions nous permet d’envisager l’association patronale comme un groupe qui dispose d’une vie qui lui est propre avec une relative autonomie de fonctionnement. La capacité d’influence de l’association serait tributaire des mécanismes de coordination de l’action utilisés pour susciter l’accord au sein du groupe. Les mécanismes de coordination de l’action devraient permettre une connexion régulière et stable entre l’association et ses membres. Cette recherche s’intéresse aux associations patronales qui ont recours à un ensemble de moyens pour diffuser les orientations privilégiées aux entreprises membres. Au plan empirique, cette recherche propose de répondre aux trois objectifs suivants : (1) mieux comprendre les formes d’organisation patronales dans les mines au Québec; (2) mieux saisir la structure et la logique d’action des associations patronales sur les politiques publiques, les relations de travail et le marché du travail et finalement (3) mieux comprendre les mécanismes développés par les associations patronales pour diffuser leurs orientations en vue d’influencer les pratiques locales de gestion de leurs membres. Pour atteindre nos objectifs de recherche, nous avons utilisé une méthodologie qualitative de recherche soit une étude de cas du secteur des mines au Québec. Cette dernière a été conduite en trois étapes : la préparation, la collecte des données et l’interprétation (Merriam, 1998). Les données de cette étude ont été recueillies à l’hiver 2012, par le biais d’entretiens semi-directifs auprès de gestionnaires d’entreprises minières et de dirigeants d’associations minières. Une analyse qualitative du contenu de ces entrevues a été effectuée en lien avec la revue de littérature et nos propositions de recherche. À cette fin, nous avons utilisé la technique de l’appariement logique de Yin (1994), ce qui nous a permis de comparer nos observations à nos propositions de recherche. Au niveau des résultats, nous avons pu constater que les associations patronales du secteur des mines au Québec, endossent davantage le rôle de porte-parole de l’industrie auprès du gouvernement que celui de développeur de services aux membres. Les actions des associations patronales s’exercent à tous les niveaux décisionnels afin d’assurer la meilleure promotion possible des intérêts des employeurs. La représentation politique représente le champ d’activité le plus important qui compose la logique d’action des associations patronales de la filière minérale québécoise. Mentionnons également que la représentation des intérêts des entreprises auprès du public et des médias est également vitale à l’action collective patronale dans un souci d’acceptabilité sociale. Les associations d’employeurs vont tenter principalement d’influencer les pratiques en relations industrielles qui permettent d’assurer une meilleure image de l’industrie et qui sont jugées prioritaires en fonction du contexte institutionnel en place. La recherche nous a permis d’observer un impact favorable et significatif à la capacité de diffusion pour cinq des sept mécanismes de diffusion faisant partie de notre modèle d’analyse. Trois de ces cinq mécanismes favorisent la capacité de diffusion descendante (transposition de la logique d’action sectorielle sur les pratiques locales des membres) et les deux autres favorisent plutôt la capacité de diffusion ascendante (transposition des enjeux locaux jugés prioritaires sur la logique d’action sectorielle). Les mécanismes qui supportent au mieux la cohésion au sein de l’association sont ceux qui impliquent une relation dynamique entre les représentants et les membres et entre les membres eux-mêmes d’où la pertinence d’une diffusion descendante et ascendante des orientations. Il est à noter qu’étant donné que cette recherche consiste en une étude de cas, des limites méthodologiques liées à la généralisation des résultats sont présentes. Il n’est pas aisé d’affirmer que les résultats de cette microanalyse soient généralisables en raison des spécificités du secteur à l’étude. En contrepartie, les analyses ont servi à l’élaboration d’un modèle qui pourra être utilisé dans des études futures.
Resumo:
Ce mémoire s'inscrit dans le domaine de la vision par ordinateur. Elle s'intéresse à la calibration de systèmes de caméras stéréoscopiques, à la mise en correspondance caméra-projecteur, à la reconstruction 3D, à l'alignement photométrique de projecteurs, au maillage de nuages de points, ainsi qu'au paramétrage de surfaces. Réalisé dans le cadre du projet LightTwist du laboratoire Vision3D, elle vise à permettre la projection sur grandes surfaces arbitraires à l'aide de plusieurs projecteurs. Ce genre de projection est souvent utilisé en arts technologiques, en théâtre et en projection architecturale. Dans ce mémoire, on procède au calibrage des caméras, suivi d'une reconstruction 3D par morceaux basée sur une méthode active de mise en correspondance, la lumière non structurée. Après un alignement et un maillage automatisés, on dispose d'un modèle 3D complet de la surface de projection. Ce mémoire introduit ensuite une nouvelle approche pour le paramétrage de modèles 3D basée sur le calcul efficace de distances géodésiques sur des maillages. L'usager n'a qu'à délimiter manuellement le contour de la zone de projection sur le modèle. Le paramétrage final est calculé en utilisant les distances obtenues pour chaque point du modèle. Jusqu'à maintenant, les méthodes existante ne permettaient pas de paramétrer des modèles ayant plus d'un million de points.