23 resultados para AM1 semi-empirical method

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Une série de dimères composés de thiophène-aniline encombrée stériquement a été synthétisée. Les différents processus de désactivation de l’état singulet excité ont été étudiés par UV-visible, fluorescence, phosphorescence, photolyse par impulsion laser et calculs théoriques. Les graphiques de Stern-Volmer obtenus à partir des expériences de désactivation des états singulet et triplet ont démontré l’efficacité de l’azométhine à désactiver les fluorophores. Les calculs semi-empiriques AM1 examinant l’effet des substituants encombrés ont démontrés que les groupements tert-butyls sur l’aniline ont moins d’influence sur la barrière de rotation N-aryl que les substitutions alkyles en ont sur la rotation de thiophène-C. Les calculs Rehm-Weller basés sur les potentiels d’oxydation et de réduction ont montré que l’autodésactivation de l’état excité des azométhines se fait par transfert d’électron photoinduit menant à une éradication complète de la fluorescence. Des complexes métalliques contenant des ligands azométhines ont aussi été préparés. Le ligand est composé d’une unité hydroxyquinoline lié à un cycle thiophène. Les données photophysiques de ces complexes indiquent un déplacement bathochromique aussi bien en absorbance qu’en fluorescence. Des dispositifs de détection d’ion métallique ont été préparés et un exemple à partir d’une solution de cuivre a montré un déplacement bathochromique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'Université Catholique de Louvain (Belgique)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce travail est consacré à l’étude de la coalescence de gouttelettes liquides à l’échelle du nanomètre. Nous nous sommes intéressés principalement à l’évolution du changement topologique des gouttelettes à partir de la rupture des surfaces au moment du contact initial jusqu’à la coalescence complète. Nous utilisons la dynamique moléculaire afin de simuler plusieurs types de gouttelettes soit en utilisant le potentiel empirique de type Stillinger-Weber pour des gouttelettes de silicium (l-Si) en 3 dimensions et le modèle Embedded Atom Method pour des gouttelettes de cuivre liquide (l-Cu) en 2d, quasi-2d (disques) et 3 dimensions. Qualitativement, toutes les simulations démontrent une coalescence similaire indépendamment de la dimension de calcul (2d à 3d), de la taille et de la température initiale des gouttelettes. La coalescence évolue par une déformation rapide des surfaces sans mixage important entre les atomes des deux gouttelettes initiales. De plus, nous étudions l’évolution du col de coalescence formé lors du contact initial entre les gouttelettes et, pour les systèmes en 3d, nous observons une transition claire d’un régime visqueux vers un régime inertiel du rayon de ce col, tel que suggéré par des modèles théoriques. Pour les gouttelettes de cuivre nous observons exactement le comportement des prédictions analytiques et confirmons que le premier régime suit un comportement visqueux sans aplatissement local des gouttelettes. La situation est différente pour les gouttelettes de l-Si où nous observons un effet plus grand, par rapport aux prédictions analytiques, du rayon et de la température initiale des gouttelettes sur l’évolution du col de coalescence. Nous suggérons que les paramètres décrivant l’évolution de la coalescence dépendent des propriétés des matériaux utilisés contrairement à la théorie universelle couramment utilisée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction : La chronicité de la rhinosinusite, sa résistance aux antibiotiques, et ses exacerbations aiguës laissent croire que les biofilms sont impliqués dans la rhinosinusite chronique. Objectifs : Nous avons évalué la capacité des bactéries Pseudomonas aeruginosa, staphylocoques à coagulase négative et Staphylococcus aureus à former des biofilms par un essai in vitro, et si cette capacité de formation a un lien avec l’évolution de la maladie. Nous avons évalué in vitro l’effet de la moxifloxacine, un antibiotique utilisé dans le traitement de la rhinosinusite chronique sur des biofilms matures de Staphylococcus aureus. Méthodes : Trent et une souches bactériennes ont été isolées de 19 patients atteints de rhinosinusite chronique et qui ont subit au moins une chirurgie endoscopique des sinus. L’évolution de la maladie a été notée comme "bonne" ou "mauvaise" selon l’évaluation du clinicien. La production de biofilm a été évaluée grâce à la coloration au crystal violet. Nous avons évalué la viabilité du biofilm après traitement avec la moxifloxacine. Ces résultats ont été confirmés en microscopie confocale à balayage laser et par la coloration au LIVE/DEAD BacLight. Résultat et Conclusion : Vingt deux des 31 souches ont produit un biofilm. La production d’un biofilm plus importante chez Pseudomonas aeruginosa et Staphylococcus aureus était associée à une mauvaise évolution. Ceci suggère un rôle du biofilm dans la pathogenèse de la rhinosinusite chronique. Le traitement avec la moxifloxacine, à une concentration de 1000X la concentration minimale inhibitrice réduit le nombre des bactéries viables de 2 à 2.5 log. Ces concentrations (100 µg/ml - 200 µg/ml) sont faciles à atteindre dans des solutions topiques. Les résultats de notre étude suggèrent que l’utilisation de concentrations supérieure à la concentration minimale inhibitrice sous forme topique peut ouvrir des voies de recherche sur de nouveaux traitements qui peuvent être bénéfiques pour les patients atteints de forme sévère de rhinosinusite chronique surtout après une chirurgie endoscopique des sinus.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire s'intéresse à la reconstruction d'un modèle 3D à partir de plusieurs images. Le modèle 3D est élaboré avec une représentation hiérarchique de voxels sous la forme d'un octree. Un cube englobant le modèle 3D est calculé à partir de la position des caméras. Ce cube contient les voxels et il définit la position de caméras virtuelles. Le modèle 3D est initialisé par une enveloppe convexe basée sur la couleur uniforme du fond des images. Cette enveloppe permet de creuser la périphérie du modèle 3D. Ensuite un coût pondéré est calculé pour évaluer la qualité de chaque voxel à faire partie de la surface de l'objet. Ce coût tient compte de la similarité des pixels provenant de chaque image associée à la caméra virtuelle. Finalement et pour chacune des caméras virtuelles, une surface est calculée basée sur le coût en utilisant la méthode de SGM. La méthode SGM tient compte du voisinage lors du calcul de profondeur et ce mémoire présente une variation de la méthode pour tenir compte des voxels précédemment exclus du modèle par l'étape d'initialisation ou de creusage par une autre surface. Par la suite, les surfaces calculées sont utilisées pour creuser et finaliser le modèle 3D. Ce mémoire présente une combinaison innovante d'étapes permettant de créer un modèle 3D basé sur un ensemble d'images existant ou encore sur une suite d'images capturées en série pouvant mener à la création d'un modèle 3D en temps réel.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper assesses the empirical performance of an intertemporal option pricing model with latent variables which generalizes the Hull-White stochastic volatility formula. Using this generalized formula in an ad-hoc fashion to extract two implicit parameters and forecast next day S&P 500 option prices, we obtain similar pricing errors than with implied volatility alone as in the Hull-White case. When we specialize this model to an equilibrium recursive utility model, we show through simulations that option prices are more informative than stock prices about the structural parameters of the model. We also show that a simple method of moments with a panel of option prices provides good estimates of the parameters of the model. This lays the ground for an empirical assessment of this equilibrium model with S&P 500 option prices in terms of pricing errors.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Affiliation: Faculté de pharmacie, Université de Montréal

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le contexte actuel de la profession enseignante au Québec est caractérisé par l’évolution manifeste qu’a connue l’enseignement depuis les dernières décennies, évolution marquée par une complexification de la tâche, accentuée par divers phénomènes sociaux. En dépit de l’épuisement professionnel et de l’attrition de certains, plusieurs enseignantes et enseignants relèvent le défi de l’enseignement en milieux difficiles et réussissent à se développer professionnellement. Ce phénomène s’apparente au concept de résilience. Parmi les facteurs personnels de protection qui favorisent la résilience, les habiletés et compétences professionnelles ont déjà été mises en évidence chez le personnel scolaire résilient. De son côté, la littérature sur le développement des compétences professionnelles valorise l’importance de la réflexion sur la pratique comme vecteur privilégié de ce processus. Dans cette perspective, la question de recherche posée est à savoir si des relations peuvent être établies entre la résilience et la réflexion sur la pratique en enseignement. Ainsi, suivant la conceptualisation de G.E. Richardson (2002), nous avons tenté d’explorer les relations entre la résilience et la réflexion du personnel enseignant, telle que conceptualisée par Korthagen (1985, 2004), à l’aide de stratégies mixtes de collecte et d’analyse des données. Nous avons d’abord opérationnalisé les deux concepts par des indices provenant de plusieurs instruments: questionnaire sur la qualité de vie au travail, journal d’autoévaluation du stress, entretien semi-dirigé. Vingt-et-une enseignantes et deux enseignants de sept écoles primaires parmi les plus défavorisées de Montréal ont participé à l’étude. Près de 7000 unités de sens ont été codées dans les entretiens. Des analyses quantitatives et qualitatives ont permis de décrire l’adversité (stress) vécue par les participants, leur qualité de vie au travail et leurs compétences professionnelles (adaptation positive), de même que leurs facteurs de risque et de protection, individuels et environnementaux. Cette démarche a permis de dégager quatre profils généraux de résilience parmi les 23 participants: très résilient (2), résilient (9), peu résilient (8) et non résilient (2). Parallèlement, le processus et les contenus de la réflexion des participants ont été analysés à partir des modèles théoriques choisis. On remarque que la plupart des participants se centrent davantage sur la description des situations problématiques, plutôt que sur la recherche de solutions, et sur les contenus environnementaux, plutôt que personnels. L’analyse verticale de quatre cas représentatifs des profils de résilience a permis des comparaisons approfondies au plan de la réflexion. Ce sont les enseignantes situées aux extrêmes du continuum de résilience (la plus résiliente et la moins résiliente de l’échantillon) qui ont montré les distinctions les plus nettes. Notamment, il semblerait qu’une faible résilience soit liée à une centration accrue sur les problèmes plutôt que sur les solutions, ainsi que sur les contenus réflexifs environnementaux plutôt que personnels, et inversement. Enfin, malgré certaines limites méthodologiques et conceptuelles, cette étude révèle l’existence de liens empiriques entre la réflexion et la résilience d’enseignantes et d’enseignants œuvrant en milieux défavorisés. Elle ouvre également la voie à des pistes pour développer la résilience du personnel scolaire et propose des idées de recherches prospectives.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The attached file is created with Scientific Workplace Latex

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Problématique : La pénurie d’organes qui sévit actuellement en transplantation rénale incite les chercheurs et les équipes de transplantation à trouver de nouveaux moyens afin d’en améliorer l’efficacité. Le Groupe de recherche transdisciplinaire sur les prédicteurs du risque immunologique du FRSQ travaille actuellement à mettre en place de nouveaux outils facilitant la quantification du risque immunologique global (RIG) de rejet de chaque receveur en attente d’une transplantation rénale. Le calcul du RIG s’effectuerait en fonction de facteurs scientifiques et quantifiables, soit le biologique, l’immunologique, le clinique et le psychosocial. La détermination précise du RIG pourrait faciliter la personnalisation du traitement immunosuppresseur, mais risquerait aussi d’entraîner des changements à l’actuelle méthode de sélection des patients en vue d’une transplantation. Cette sélection se baserait alors sur des critères quantifiables et scientifiques. L’utilisation de cette méthode de sélection possède plusieurs avantages, dont celui d’améliorer l’efficacité de la transplantation et de personnaliser la thérapie immunosuppressive. Malgré tout, cette approche soulève plusieurs questionnements éthiques à explorer chez les différents intervenants œuvrant en transplantation rénale quant à sa bonne utilisation. Buts de l’étude : Cette recherche vise à étudier les perceptions de néphrologues transplanteurs et référents de la province de Québec face à l’utilisation d’une méthode de sélection des patients basée sur des critères scientifiques et quantifiables issus de la médecine personnalisée. Les résultats pourront contribuer à déterminer la bonne utilisation de cette méthode et à étudier le lien de plus en plus fort entre science et médecine. Méthodes : Des entretiens semi-dirigés combinant l’emploi de courtes vignettes cliniques ont été effectués auprès de 22 néphrologues québécois (transplanteurs et référents) entre juin 2007 à juillet 2008. Le contenu des entretiens fut analysé qualitativement selon la méthode d’analyse de Miles et Huberman. Résultats : Les résultats démontrent une acceptation généralisée de cette approche. La connaissance du RIG pour chaque patient peut améliorer le traitement et la prise en charge post-greffe. Son efficacité serait supérieure à la méthode actuelle. Par contre, la possible exclusion de patients pose un important problème éthique. Cette nouvelle approche doit toutefois être validée scientifiquement et accorder une place au jugement clinique. Conclusions : La médecine personnalisée en transplantation devrait viser le meilleur intérêt du patient. Malgré l’utilisation de données scientifiques et quantifiables dans le calcul du RIG, le jugement clinique doit demeurer en place afin d’aider le médecin à prendre une décision fondée sur les données médicales, son expertise et sa connaissance du patient. Une réflexion éthique approfondie s’avère nécessaire quant à l’exclusion possible de patients et à la résolution de la tension entre l’équité et l’efficacité en transplantation rénale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper studies the application of the simulated method of moments (SMM) for the estimation of nonlinear dynamic stochastic general equilibrium (DSGE) models. Monte Carlo analysis is employed to examine the small-sample properties of SMM in specifications with different curvature. Results show that SMM is computationally efficient and delivers accurate estimates, even when the simulated series are relatively short. However, asymptotic standard errors tend to overstate the actual variability of the estimates and, consequently, statistical inference is conservative. A simple strategy to incorporate priors in a method of moments context is proposed. An empirical application to the macroeconomic effects of rare events indicates that negatively skewed productivity shocks induce agents to accumulate additional capital and can endogenously generate asymmetric business cycles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche s’intéresse aux formes et à la capacité des associations patronales à façonner les règles du travail au niveau sectoriel, plus précisément dans le secteur de l’hôtellerie au Québec. Elle vise également à mieux comprendre comment ces règles contribuent à modifier les pratiques locales en relations industrielles de leurs entreprises membres. Notre première question de recherche vise donc à cerner l’impact des logiques de représentation et d’action des associations patronales sur les pratiques en relations industrielles. Pour certains auteurs, notamment Behrens et Traxler (2004 et 2007), Carley et al. (2010), Charest, Laroche et Hickey (à paraître), les logiques de représentation et d’action chez les acteurs patronaux se distinguent l’une de l’autre et influencent de manière différente les pratiques en relations industrielles. Ainsi, la présence, la forme et le rôle d’une association patronale auront un impact significatif sur les pratiques en relations industrielles, car les membres peuvent être influencés par les orientations de leurs associations. Notre seconde question de recherche aborde la manière dont les entreprises membres utilisent leurs ressources de pouvoir afin d’influencer les actions des associations patronales. La littérature existante à ce sujet mentionne que les acteurs patronaux détenant plusieurs ressources de pouvoir, qu’elles soient internes ou externes (Charest, Laroche et Hickey, à paraître; Laroche et Hickey, à paraître), sont en mesure d’exercer une influence dans les institutions politiques. Nous tenterons donc de vérifier si, plus une association patronale sera en mesure de mobiliser ses ressources de pouvoir, plus elle sera apte à influencer le contexte institutionnel dans lequel elle agit. Au plan théorique, cette recherche s’appuie sur les idées développées par les théories néo-institutionnalistes. D’une part, nous reconnaissons que les acteurs doivent réagir et s’adapter aux changements qui s’opèrent au sein de leur environnement. Ils développeront donc des stratégies diverses, autant en matière de coordination des actions patronales que de relations du travail au niveau local, en fonction de leur interprétation de ces transformations (Traxler et Huemer, 2007). D’autre part, nous reconnaissons que les acteurs sont aussi en mesure de mobiliser leurs ressources de pouvoir pour déployer des initiatives stratégiques qui seront susceptibles de provoquer en retour des changements au sein de leur environnement (Crouch, 2005). Ces entrepreneurs institutionnels sont ainsi à la recherche active d’opportunités et de leviers de pouvoir à utiliser pour maximiser leurs intérêts respectifs et, par le fait même, réduire les incertitudes issues de leur environnement (Campbell, 2004; Streeck et Thelen, 2005; Crouch, 2005). Notre recherche reconnaît également que les acteurs qui détiennent le plus grand pouvoir au sein d’un groupe, soient les porteurs de projets, vont être en mesure de façonner les institutions en fonction de leurs intérêts spécifiques (Thelen, 2003). C’est d’ailleurs sur ce plan que notre recherche veut se démarquer des travaux plus larges dans laquelle elle s’insère. Au plan empirique, cette recherche étudie l’acteur patronal dans l’industrie de l’hôtellerie au Québec et vise trois objectifs : 1) faire la cartographie des associations patronales dans le secteur de l’hôtellerie au Québec (formes, structures, activités, missions, etc.); 2) analyser l’impact des règles issues du processus de régulation au niveau sectoriel sur les pratiques de relations du travail locales; et 3) identifier les employeurs dominants au sein du secteur et analyser de quelle manière ils parviennent à modifier les institutions et l’environnement dans lequel ils agissent. Pour atteindre nos objectifs de recherche, nous avons utilisé une méthodologie qualitative de recherche, et plus particulièrement l’étude de cas. Cette dernière a été conduite en trois étapes : la préparation, la collecte des données et l’interprétation (Merriam, 1998). Les données de cette étude ont été recueillies à l’automne 2011, par le biais d’entrevues semi-dirigées auprès de gestionnaires d’hôtels et d’associations hôtelières dans les régions de Québec et de Montréal. Une analyse qualitative du contenu de ces entrevues a été effectuée en lien avec la revue de littérature et nos propositions de recherche. À cette fin, nous avons utilisé la technique de l’appariement logique de Yin (1994), ce qui nous a permis de comparer nos observations à nos propositions de recherche. Il est à noter que puisque cette recherche est une étude de cas, cette dernière présente des limites méthodologiques surtout liées à la généralisation des résultats. Ainsi, il est très difficile d’affirmer que les résultats de cette microanalyse soient généralisables. En contrepartie, les analyses ont servi à consolider le modèle pour utilisation dans des études futures.