47 resultados para Courbe de coûts
Resumo:
La connectivité fonctionnelle est reconnue pour altérer la fréquence des rencontres entre les individus et potentiellement affecter les coûts en lien avec la recherche de partenaires sexuels. La structure du paysage peut conséquemment engendrer de la variation dans le succès reproducteur des individus et par le fait même, modifier les opportunités de sélection sexuelle. Le but de cette étude était d’identifier l’influence de la structure du paysage sur les patrons de paternités hors couple (EPP) chez l’Hirondelle bicolore (Tachycineta bicolor), un insectivore aérien en déclin depuis environ 30 ans au Québec. Plus précisément, il était question d’évaluer l’importance relative de la disponibilité spatiotemporelle des partenaires potentiels, de la perméabilité de l’environnement aux mouvements, des caractéristiques individuelles, et des interactions entre certaines de ces variables sur la probabilité qu’un mâle fertilise une femelle, sur le nombre de mâles hors couple ayant fertilisé une femelle et enfin, sur le nombre de jeunes hors couple produits par une femelle. Pour se faire, une approche spatialement explicite basée sur la théorie des circuits a été employée. La collecte de données s’est faite sur 8 saisons de reproduction au sein d’un réseau de 40 fermes (10 nichoirs/ferme) situé le long d’un gradient d’intensification agricole de manière à ce que les individus se retrouvent dans des conditions socioécologiques contrastées. Selon les résultats obtenus, la densité de partenaires potentiels non locaux (i.e. hors ferme, mais au sein d’un rayon de 15 km) a eu un effet négatif sur la probabilité que deux individus produisent des jeunes hors couple, probablement à cause de l’effet de dilution entre compétiteurs. Cette même variable a également induit une augmentation du nombre de pères hors couple non locaux et de leurs jeunes dans une couvée donnée, mais seulement lorsque la résistance aux déplacements était faible. La densité locale a pour sa part eu l’effet inverse, ce qui laisse penser que les femelles auraient tendance à se contenter de leurs voisins immédiats quand les coûts de recherche dans le paysage sont trop élevés en comparaison à ce qui est disponible à proximité. Quant aux caractéristiques individuelles, leurs effets semblent négligeables à l’exception faite de la charge parasitaire moyenne des mâles locaux, laquelle pousserait les femelles à chercher des mâles en dehors de la ferme lorsqu’elle est élevée. Ce facteur ne représente toutefois pas seulement un indice potentiel de la qualité des jeunes produits par ces mâles, mais aussi un risque direct de transmission de parasites lors de copulations hors couple. Somme toute, il semble que les patrons de EPP soient davantage affectés par les variables du paysage que par la morphologie et la condition physique des individus. Ces découvertes sont d’un intérêt particulier puisque la compréhension des effets de l’écologie sur les paternités hors couple est essentielle pour une meilleure connaissance de la sélection sexuelle, des stratégies d’appariement et par le fait même, des processus évolutifs. De plus, identifier le rôle joué par le paysage dans les stratégies sexuelles pourrait aider à élaborer des plans de conservation appropriés pour les espèces dont le déclin est attribuable à des changements dans l’environnement.
Resumo:
La présente étude vise à définir le processus de transaction, des différentes composantes des coûts de transaction, et des différents moyens pour les mesurer. Plus particulièrement, cette étude porte sur l'utilité de l'évaluation des gestionnaires de portefeuille de l'Université de Sherbrooke par rapport aux coûts de transaction calculés par Abel Noser. Abel Noser est une firme de consultant de New York qui se spécialise dans l'évaluation des fonds de pension. Ils ont mesuré durant deux périodes, les commissions et l'impact de marché subi par des courtiers utilisés par les gestionnaires. L'objectif principal, voulait examiner s'il y avait eu une différence au niveau de l'impact de marché subi par les courtiers pour les deux périodes. Vu que les courtiers n'ont pas été avertis qu'ils étaient mesurés, on ne devrait pas trouver de différence significative. Par contre, s'il y a une différence entre les deux périodes, alors que les courtiers n'étaient pas informés, on pourra conclure que la mesure d'Abel Noser donne des résultats aléatoires puisque les courtiers ne sont pas sensés avoir cherché à contourner le système. La synthèse des résultats de la première hypothèse n'a pas permis de vérifier la validité de la mesure d'Abel Noser. Par contre, quand on se réfère aux critiques faites par plusieurs auteurs, la mesure d'Abel Noser peut porter à confusion. En conclusion, cette étude ne recommande donc pas au comité de retraite de l'Université de Sherbrooke d'utiliser les services d'Abel Noser.
Resumo:
Ce projet porte, dans un souci d’efficacité énergétique, sur la récupération d’énergie des rejets thermiques à basse température. Une analyse d’optimisation des technologies dans le but d’obtenir un système de revalorisation de chaleur rentable fait objet de cette recherche. Le but sera de soutirer la chaleur des rejets thermiques et de la réappliquer à un procédé industriel. Réduire la consommation énergétique d’une usine entre habituellement en conflit avec l’investissement requis pour les équipements de revalorisation de chaleur. Ce projet de maitrise porte sur l’application d’optimisations multiobjectives par algorithme génétique (GA) pour faciliter le design en retrofit des systèmes de revalorisation de chaleur industrielle. L’originalité de cette approche consiste à l’emploi du «fast non-dominant sorting genetic algorithm» ou NSGA-II dans le but de trouver les solutions optimales entre la valeur capitale et les pertes exergétiques des réseaux d’échangeurs de chaleur et de pompes à chaleur. Identifier les solutions optimales entre le coût et l’efficacité exergétique peut ensuite aider dans le processus de sélection d’un design approprié en considérant les coûts énergétiques. Afin de tester cette approche, une étude de cas est proposée pour la récupération de chaleur dans une usine de pâte et papier. Ceci inclut l’intégration d’échangeur de chaleur Shell&tube, d’échangeur à contact direct et de pompe à chaleur au réseau thermique existant. Pour l’étude de cas, le projet en collaboration avec Cascades est constitué de deux étapes, soit de ciblage et d’optimisation de solutions de retrofit du réseau d’échangeur de chaleur de l’usine de tissus Cascades à Kinsley Falls. L’étape de ciblage, basée sur la méthode d’analyse du pincement, permet d’identifier et de sélectionner les modifications de topologie du réseau d’échangeurs existant en y ajoutant de nouveaux équipements. Les scénarios résultants passent ensuite à l’étape d’optimisation où les modèles mathématiques pour chaque nouvel équipement sont optimisés afin de produire une courbe d’échange optimal entre le critère économique et exergétique. Pourquoi doubler l’analyse économique d’un critère d’exergie? D’abord, parce que les modèles économiques sont par définition de nature imprécise. Coupler les résultats des modèles économiques avec un critère exergétique permet d’identifier des solutions de retrofit plus efficaces sans trop s’éloigner d’un optimum économique. Ensuite, le rendement exergétique permet d’identifier les designs utilisant l’énergie de haute qualité, telle que l’électricité ou la vapeur, de façon plus efficace lorsque des sources d’énergie de basse qualité, telles que les effluents thermiques, sont disponibles. Ainsi en choisissant un design qui détruit moins d’exergie, il demandera un coût énergétique moindre. Les résultats de l’étude de cas publiés dans l’article montrent une possibilité de réduction des coûts en demande de vapeur de 89% tout en réduisant la destruction d’exergie de 82%. Dans certains cas de retrofit, la solution la plus justifiable économiquement est également très proche de la solution à destruction d’exergie minimale. L’analyse du réseau d’échangeurs et l’amélioration de son rendement exergétique permettront de justifier l’intégration de ces systèmes dans l’usine. Les diverses options pourront ensuite être considérées par Cascades pour leurs faisabilités technologiques et économiques sachant qu’elles ont été optimisées.
Resumo:
Les changements dans le réseau de la santé tel que le virage des soins vers le soutien à domicile (SAD) pour les aînés en perte d'autonomie, exigent des infirmières qu'elles mettent à jour leurs connaissances. Cette étude qualitative réalisée au moyen d'entrevues semi-dirigées s'intéresse au rapport à la formation infirmière continue (FIC) chez des infirmières en SAD au Québec. Son cadre de référence s'inspire des modèles de l'American Nurses Association (1994), de Cervero (1985) et de Hegge (1985). Les résultats révèlent que les infirmières sont engagées en FIC, qu'elles réalisent des activités de formation continue (AFC) diversifiées et qu'elles perçoivent certaines retombées dans leur pratique clinique. Cependant, des contraintes de temps, de coûts et d'accessibilité des AFC pertinentes demeurent des enjeux à prendre en considération. Finalement, des recommandations concernant la pratique clinique, l'enseignement, la gestion et la recherche sont proposées.
Resumo:
À travers la littérature théorique sur le sujet, nous avons pu remarquer que pendant les dernières années, le processus migratoire a subi des changements : le nombre de migrations internationales a augmenté et les flux migratoires ont privilegié des directions nouvelles. En même temps, grâce au développement accélére des nouvelles technologies de l'information et de la communication (TIC) et à la baisse de leurs coûts, les caractéristiques de la migration ont été modifiées : les pratiques de communication transnationales sont devenues facilement accessibles et plus fréquentes. Les TIC ont mis au service des migrants de nouveaux circuits pour communiquer et ont introduit des changements dans la façon de le faire. Le discours transmis au moyen des TIC n'est pas limité au récit d'événements : il est composé par des expressions d'émotions, d'états d'âme récents, des sensations, qui permettent de rapprocher les territoires, et même de les unifier, donnant l'image d'une présence connectée. Ce lointain devenu accessible par les TIC crée un espace social de présences simultanées, ou plutôt de coprésences, défini par une forte interaction qui a remplacé aujourd'hui le sentiment ancien de double absence (n'être plus là et pas encore ici). L'ancienne image du migrant déraciné s'est vue remplacée par celle d'un migrant qui circule en gardant le contact avec son pays d'origine. Ce nouveau modèle, celui du migrant connecté, est caracterisé par l'hypermobilité et la multiappartenance qui l'installent dans une mobilité perçue, de nos jours, comme positive. L'usage répandu des nouvelles technologies a permis l'expression d'une culture du lien (jusqu'ici existante à l'état latent et peu développée), axée sur la création de réseaux. Les réseaux pourraient occuper une importance majeure dans le processus d'intégration à un nouveau territoire, dans la participation à la vie associative ainsi que dans la conservation de la mémoire identitaire. Notre cadre théorique est constitué par la littérature sur le sujet et nous allons nous appuyer sur une recherche de terrain pour constater à quel degré un groupe précis, celui des immigrants argentins à Sherbrooke, se sert des TIC dans son vécu migratoire et de quelle manière cet usage peut avoir une influence sur son intégration au pays d'accueil.
Resumo:
L’acceptabilité sociale prend de plus en plus de place dans la sphère publique depuis la dernière décennie et ce concept semble même faire la pluie et le beau temps lorsqu’un promoteur tente de mettre en œuvre un projet. Même si les problématiques d’acceptabilité sociale sont rencontrées dans tous les domaines allant de la construction de condominium à l’implantation de projets miniers, les promoteurs du secteur énergétique semblent avoir davantage de difficultés à l’obtenir. L’objectif de cet essai est donc de déterminer les éléments dans la démarche d’acceptabilité sociale des promoteurs de ce secteur qui font en sorte que leurs projets soient si mal acceptés. Une analyse a été réalisée en étudiant des projets bien acceptés socialement et d’autres comportant des lacunes au niveau de l’acceptabilité sociale, dans chacun des secteurs suivants : minier, industriel et énergétique. Ainsi, les bonnes pratiques relevées pourront servir d’exemple pour les promoteurs de projets énergétiques aux prises avec des problèmes dans ce domaine. Les pratiques de chaque secteur ont été évaluées à l’aide de critères tirés et adaptés de l’article 6 de la Loi sur le développement durable. Une note a ensuite été attribuée à chacun des critères. L’analyse a permis de démontrer qu’effectivement, le secteur de l’énergie accuse un retard sur les secteurs miniers et industriels, qui ont tous deux trouvé des moyens efficaces pour acquérir et maintenir l’acceptabilité sociale. Les critères nécessitant une amélioration imminente sont les suivants : la responsabilité environnementale, la santé-sécurité, la participation du public et l’internalisation des coûts. Des recommandations ont alors été formulées dans l’optique de favoriser l’acceptabilité sociale des projets énergétiques. Les promoteurs auraient avantage à se doter d’un cadre de référence en matière de responsabilité sociale et environnementale, à faire preuve de transparence ainsi qu’à produire un rapport de développement durable. Il serait également bénéfique pour le promoteur d’évaluer les impacts en collaborant avec les acteurs du milieu et de démontrer sa capacité à intervenir en cas d’urgence. Les démarches de consultation publiques devraient être bonifiées en initiant le processus dès la phase de préfaisabilité et en choisissant un porte-parole crédible et présent dans la communauté d’accueil. L’internalisation des coûts devrait aussi être effectuée de manière plus réaliste et exhaustive. En somme, il se peut qu’un projet ne soit jamais acceptable par la société d’accueil en dépit de tous les efforts déployés par le promoteur, mais une bonne image vaut son pesant d’or.
Resumo:
L’objectif de cet essai est de formuler des recommandations afin de diminuer le gaspillage alimentaire dans les épiceries québécoises. Le gaspillage alimentaire est une problématique mondiale de plus en plus considérée comme une préoccupation prioritaire par le public, les entreprises et les instances nationales et internationales. Les causes du gaspillage alimentaire sont multiples et le phénomène se produit dans toutes les régions du monde, à toutes les étapes de la chaîne agroalimentaire, de la production agricole à la consommation. Le gaspillage alimentaire engendre de lourdes conséquences environnementales, économiques et sociales. Il participe à l’insécurité alimentaire et contribue aux changements climatiques et à l’épuisement des ressources, en plus de générer des coûts économiques pour la production d’aliments qui ne seront pas consommés. S’attaquer à la problématique du gaspillage alimentaire signifie donc s’attaquer à tous ces impacts négatifs. Au Québec, l’intérêt envers le phénomène du gaspillage alimentaire s’accroît, mais les solutions structurées tardent à se mettre en place. Les épiceries ont un important rôle à jouer dans la réduction du gaspillage alimentaire puisqu’elles influencent, en amont et en aval, tous les acteurs de la chaîne agroalimentaire. L’étude du marché agroalimentaire québécois et des différentes initiatives locales et étrangères de lutte au gaspillage alimentaire met en évidence trois grandes solutions structurées de réduction du gaspillage dans les épiceries : le don alimentaire, la vente de produits déclassés et la révision du système de dates de péremption des aliments. L’analyse du fonctionnement de ces solutions et de leur mise en œuvre dans le contexte des épiceries québécoises permet d’identifier les contraintes et les éléments à considérer pour réduire le gaspillage alimentaire de façon concrète et efficace. Ainsi, en respect d’une hiérarchie des modes de gestion des aliments qui favorise la réduction à la source et le détournement avant l’élimination, les recommandations formulées suggèrent de : réviser le système des dates de péremption pour améliorer la distinction entre les notions de fraîcheur et de salubrité des aliments; promouvoir et faciliter la vente de fruits et légumes déclassés dans les épiceries en diminuant les critères esthétiques exigés qui conduisent à un important gaspillage de denrées comestibles; mettre en place des incitatifs économiques pour réduire les contraintes financières et logistiques reliées au don alimentaire pour les épiceries et les organismes de redistribution; et valoriser les résidus alimentaires par la biométhanisation ou le compostage pour limiter les impacts environnementaux du gaspillage alimentaire. Les recommandations soulignent également l’importance d’étudier le phénomène et de documenter la problématique, afin de suggérer des solutions toujours plus efficaces et adaptées à chaque groupe d’acteurs et chaque étape de la chaîne agroalimentaire.
Resumo:
La mise en oeuvre de systèmes de détection de défauts à même les structures ou infrastructures en génie est le sujet d’étude du Structural Health Monitoring (SHM). Le SHM est une solution efficace à la réduction des coûts associés à la maintenance de structures. Une stratégie prometteuse parmi les technologies émergentes en SHM est fondée sur l’utilisation d’ondes ultrasonores guidées. Ces méthodes sont basées sur le fait que les structures minces agissent comme guides d’ondes pour les ondes ultrasonores. Puisque les structures aéronautiques sont majoritairement minces, les ondes guidées constituent une stratégie pertinente afin d’inspecter de grandes surfaces. Toutefois, les assemblages aéronautiques sont constitués de plusieurs éléments modifiant et compliquant la propagation des ondes guidées dans celles-ci. En effet, la présence de rivets, de raidisseurs, de joints ainsi que la variation de la nature des matériaux utilisés complexifie la propagation des ondes guidées. Pour envisager la mise en oeuvre de systèmes de détection basés sur les ondes guidées, une compréhension des interactions intervenant dans ces diverses structures est nécessaire. Un tel travail entre dans le cadre du projet de collaboration CRIAQ DPHM 501 dont l’objectif principal est de développer une banque de connaissances quant à la propagation d’ondes guidées dans les structures aéronautiques. Le travail de ce mémoire présente d’abord les résultats d’études paramétriques numériques obtenus dans le cadre de ce projet CRIAQ. Puis, afin de faciliter la caractérisation expérimentale de la propagation des ondes guidées, une seconde partie du travail a porté sur le développement d’un absorbant d’ondes guidées. Cet absorbant permet également d’envisager l’extension des régions observables par les systèmes SHM. Ce deuxième volet contribue donc également au projet CRIAQ par l’atténuation de réflexions non désirées dans l’étude menée sur les maintes structures aéronautiques nourrissant la banque de connaissances. La première partie de ce mémoire relève l’état des connaissances de la littérature sur la propagation d’ondes guidées dans les structures aéronautiques. La deuxième partie présente rapidement le formalisme derrière les ondes de Lamb ainsi que les différentes approches analytiques pour caractériser les interactions entre ondes guidées et discontinuités. Par la suite, les outils utilisés pour effectuer les simulations par éléments finis sont présentés et validés par le biais d’une phase expérimentale. La deuxième partie se termine avec la présentation des différentes structures et discontinuités étudiées dans le cadre du projet CRIAQ. Finalement, la troisième et dernière partie de ce mémoire présente les travaux numériques orientés vers la conception d’un absorbant idéal pour ondes guidées. Afin d’y parvenir, une étude paramétrique quant à la forme, les dimensions et les propriétés mécaniques de l’absorbant est entreprise. Enfin, une étude expérimentale permettant de valider les résultats numériques est présentée.
Resumo:
Au Canada, les avalanches constituent le géorisque le plus dangereux en période hivernale. On enregistre annuellement d’importants coûts économiques et sociaux associés aux impacts de ce phénomène naturel. Par exemple, la fermeture de routes en cas de risque d’avalanche est estimée à 5 millions de dollars (Jamieson et Stethem, 2002). La prévision des avalanches est, de nos jours, la meilleure méthode afin d’éviter ces coûts. Au Canada, cela s’effectue de façon ponctuelle à l’aide de méthodes manuelles tel que le test de compression (CAA, 2014). Les modèles de simulation du couvert neigeux permettent d’étendre les prévisions à l’ensemble d’une région et ainsi, atteindre certains lieux difficilement accessibles pour l’homme. On tente actuellement d’adapter le modèle SNOWPACK aux conditions canadiennes et plusieurs études ont eu pour but d’améliorer les simulations produites par celui-ci. Cette étude vise donc également l’amélioration des simulations par l’intégration des paramètres de végétation. L’objectif de l’étude est de paramétrer, pour la première fois, le module de végétation de SNOWPACK avec les données récoltées dans la réserve faunique des Chic-Chocs. Nous pourrons ainsi évaluer l’impact de la végétation sur la modélisation du couvert nival. Nous avons donc, lors de sorties de terrain, recueillis les données de neige et de végétation au niveau de quatre sites d’étude. Nous avons par la suite réalisé les simulations avec SNOWPACK et comparer les résultats des simulations avec et sans végétation aux données de terrain. L’étude nous révèle que le modèle diminue la quantité de neige au sol ainsi que la densité du manteau neigeux en présence de végétation. De plus nous avons pu constater que l’inclusion du module de végétation permet d’obtenir des données qui se rapprochent davantage de ce qui a été observé sur le terrain.
Resumo:
L’objectif de cet essai est de démystifier la tarification incitative et de présenter un outil pratique pour l’implantation réussie d’un système de tarification incitative de la collecte municipale des matières résiduelles au Québec. Cinq sous-objectifs mènent à cette réponse : les raisons du non-emploi de la tarification incitative au Québec, l’analyse des cas à succès en Amérique du Nord et en Europe, l’identification des préalables nécessaires à l’implantation, les étapes opérationnelles de la mise en œuvre et la communication adéquate du processus. L’importance du sujet de cet essai découle des coûts de la gestion des matières résiduelles. Ils voient une augmentation constante due aux redevances à l’élimination et aux nouvelles méthodes de valorisation pour les matières organiques. Une mise à jour de la tarification municipale est donc indispensable. La tarification incitative est un outil efficace pour la réduction des matières résiduelles produites et enfouies ainsi que pour améliorer le taux de récupération résidentiel. De nombreux cas réussis existent en Amérique du Nord. Néanmoins, seulement deux municipalités québécoises utilisent ce système à présent. Des résultats trouvés indiquent qu’une tarification incitative fonctionnelle dépend de l’adaptation du système aux particularités de chaque municipalité. Ceci s’applique au choix du contenant de collecte, des modalités de la facturation et à l’élaboration de la grille tarifaire. En préparation du projet, il est important d’offrir le plus de services complémentaires que possibles afin d’inciter un taux de récupération maximal. Ces services comportent des outils pour le compostage maison, un écocentre pour apport de matières additionnelles ainsi que des collectes spéciales pour les matières organiques, les encombrants et les résidus de construction. Neuf étapes d’une implantation réussie ont été identifiées. La base de chaque projet de tarification incitative est une étude économique et logistique préalable qui permet l’élaboration du scénario choisi. Un projet pilote lancé dans un échantillon de la population aide ensuite à peaufiner la méthode. La préparation de l’appel d’offres et le vote du projet s'en suivent. La mise en œuvre présente un contact avec les citoyens lors de la distribution et mise à jour des contenants de collecte. Par la suite, la municipalité à l’option de commencer par un test à blanc avant d’introduire la tarification complète lors du lancement. Enfin, un suivi par bilans annuels publiés s’impose. Une communication adéquate avant, pendant et après l’implantation est indispensable. La réussite du projet est fortement améliorée par l’allocation d’un chargé de projet responsable dès le début et la portée du projet par les élus.
Resumo:
Dans le contexte de la production d’éthanol cellulosique, la cellulose doit être hydrolysée par voie chimique ou enzymatique. Dans ce procédé d’hydrolyse, la partie cristalline de la cellulose est plus difficilement fragmentable, ce qui entraîne des coûts supplémentaires dues au temps de traitement plus élevé ou à la quantité supplémentaire de produits chimiques nécessaires. Dans l’optique de réduire les coûts de l’hydrolyse tout en recherchant une voie pour valoriser la cellulose cristalline, l’idée de fabriquer des composites polymères/cellulose est attrayante. L’objectif du présent travail a donc été de valider si la cellulose microcristalline tirée d’un processus d’hydrolyse acide pourrait mener à de nouveaux matériaux composites à valeur ajoutée. Un obstacle anticipé dans le projet a été la faible adhésion de la cellulose, hydrophile et polaire, aux polymères généralement beaucoup moins polaires. Le développement de composites performants et l’atteinte de teneurs élevés en cellulose microcristalline a donc inclus, sur le plan chimique, l’objectif de comparer divers traitements de surface de la cellulose qui permettrait de pallier aux défis anticipés. La méthodologie utilisée dans ce projet a consisté à développer et optimiser un protocole de modification chimique sur de la cellulose microcristalline commerciale à l’échelle laboratoire. Les celluloses modifiées ont été soumises à une caractérisation par analyse de l’angle de contact pour caractériser l’hydrophobicité des fibres, par spectrométrie photoélectronique X pour l’analyse de la composition chimique des fibres, par granulométrie laser pour mesurer la longueur des différentes fibres et microscopie optique pour l’observation de la longueur des fibres. Toutes les techniques ont été utilisées afin de comparer les propriétés des celluloses modifiées à celles de la cellulose de référence. La cellulose de référence et les celluloses modifiées chimiquement ont ensuite été mélangées à des concentrations de 0 à 50% avec du polyéthylène de basse densité à l’état fondu en utilisant un mélangeur interne de type Brabender®. Les composites ont été caractérisés par microscopie électronique à balayage pour analyser la morphologie de mélange sur les surfaces de rupture et l’homogénéité du mélange, par des analyses rhéologiques afin d’obtenir la viscosité en fonction du cisaillement et par des essais de traction afin de déterminer leur Module de Young, leur résistance à la traction et leur élongation à la rupture. Ces caractéristiques permettent de prévoir la performance des composites dans des applications structurales.
Resumo:
Résumé: Problématique : En réponse à la prévalence accrue de la maladie du diabète et au fardeau économique important que représente cette maladie sur le système de santé international, des programmes incitatifs pour les maladies chroniques furent instaurés à travers le monde. Ces programmes visent à inciter les médecins à appliquer les lignes directrices chez leurs patients avec besoin complexe en vue d’améliorer la santé des patients et par la suite de réduire les coûts incombés par le système de santé. Les programmes incitatifs étant nombreux et différents d’un pays à l’autre, les études actuelles ne semblent pas s’entendre sur les répercussions de tels programmes sur la santé des patients atteints de diabète. L’objectif de cette étude est d’évaluer les retombées d’un incitatif financier sur le contrôle glycémique de la population atteinte de diabète du Nouveau-Brunswick, au Canada. Méthodes : Cette étude transversale répétée et de cohorte a été menée grâce à des bases de données administratives du Nouveau-Brunswick contenant des données sur dix ans pour 83 580 patients adultes atteints de diabète et 583 médecins de famille éligibles. La santé des patients a été évaluée au niveau du contrôle glycémique, en mesurant les valeurs moyennes d’A1C annuelles à l’aide de régressions linéaires multivariées. Afin d’évaluer si les médecins changeaient leur pratique avec l’implantation du programme incitatif, nous regardions au niveau de la probabilité de recours annuel à au moins deux tests d’A1C en utilisant des régressions logistiques multivariées. Résultats : La probabilité de recours annuel à au moins deux tests d’A1C était plus élevée dans quatre sous-groupes étudiés : les patients nouvellement diagnostiqués après l’implantation du programme avaient des cotes plus élevées comparées aux nouveaux patients avant l’implantation du programme (OR=1.23 [1.18-1.28]); les patients pour lesquels un médecin avait réclamé l’incitatif comparés aux patients pour lesquels aucun médecin n’avait réclamé l’incitatif (OR=2.73 [2.64-2.81]); les patients pour lesquels un médecin avait réclamé l’incitatif avaient des cotes plus élevées après l’implantation du programme comparé à avant (OR=1.89 [1.80-1.98]); et finalement, les patients suivis par un médecin de famille qui a déjà réclamé l’incitatif avaient des cotes 24% plus élevées (OR=1.24 [1.15-1.34]). Il n’y avait pas de différence dans les valeurs d’A1C annuelles entre les 4 sous-groupes étudiés. Conclusion : L’implantation du programme incitatif a démontré que les médecins ont une meilleure probabilité de prescrire au moins deux tests d’A1C, ce qui suggère une meilleure prise en charge des patients. Cependant, le manque de changement au niveau du contrôle glycémique du patient suggère que l’étude des répercussions de l’incitatif devra être poursuivie afin de voir si elle mène à une amélioration d’issues cliniques chez les patients.
Resumo:
L'extension de marque est une stratégie de plus en plus utilisée par les compagnies. Plus de 40% des nouveaux produits lancés sur le marché nord-américain sont issus d'une stratégie d'extension de marque. Un exemple, Pepsi (appelée marque-mère) qui met sur le marché Pepsi Cristal (appelée extension). Notoriété immédiate du nouveau produit, coûts de publicité réduits et facilité d'accès aux canaux de distribution sont autant de raisons expliquant l'intérêt des firmes envers cette stratégie. L'extension de marque peut cependant avoir l'effet négatif d'atténuer les perceptions et l'évaluation de la marque-mère dans l'esprit des consommateurs. Plusieurs raisons laissent croire que cet effet négatif serait plus important chez les consommateurs fidèles à une marque que chez les consommateurs infidèles et les non-consommateurs. Une simulation de lancement du produit Coke Cristal a été réalisée dans le cadre d'un plan expérimental de type "avant-après" auprès de 189 étudiants afin d'examiner si l'effet négatif de cette extension de marque est effectivement plus important chez les consommateurs fidèles à une marque de boissons gazeuses que chez les consommateurs infidèles et les non-consommateurs. Les résultats démontrent l'impact du niveau de fidélité sur le changement des perceptions envers la marque-mère, mais ne démontrent pas son impact sur le changement d'évaluation de la marque-mère après extension. Les implications managériales de ces résultats sont discutées.
Resumo:
La recherche qui a été effectuée dans le présent document, porte sur l'écart appliqué par les banques aux swaps de taux d'intérêt. Les éléments hors-bilan des banques dont fait partie les swaps de taux d'intérêt ont connu ces dernières années une croissance très importante, à cause principalement d'une volatilité des taux d'intérêt élevée. Nous avons choisi d'analyser l'écart bancaire sur les swaps de taux d'intérêt dans le but d'identifier la nature des relations qui existent entre lui et certains facteurs pertinents. Étant donné que dans la littérature financière il n'y a aucune étude empirique relative à ce sujet, et qu'il y a un manque d'informations théoriques adéquates en ce qui concerne la forme des relations analysées, nous avons effectué ce travail dans une perspective exploratoire. Les facteurs pertinents retenus sont le taux des acceptations bancaires, la volatilité de ce taux, mesurée par l'écart-type des observations des trente derniers jours, la pente de la courbe de rendement, et l'échéance du swap. La période d'étude va du 17/02/89 au 11/02/91 et compte 493 observations; elle a été subdivisée en quatre sous-périodes chronologiques égales. Ainsi chacune des analyses a-t-elle été effectuée de deux façons ; d'abord sur l'ensemble de l'échantillon et ensuite dans les sous-périodes. Deux types de swaps ont été considérés : les swaps de trois ans d'échéance et les swaps de cinq ans d'échéance. Les résultats de l'analyse des données sont les suivants : Dans une large mesure, il est plausible d'affirmer que l'écart bancaire sur les swaps de taux d'intérêt est une fonction négative du taux des acceptations bancaires. Mais cette relation est plus évidente lorsque le taux des acceptations bancaires est élevé que lorsqu'il est plus faible. Il est également soutenable d'affirmer que l'écart bancaire est une fonction positive de la volatilité des taux d'intérêt ainsi que de la pente de la courbe de rendement. L'écart bancaire augmente avec une augmentation de l'échéance du swap; néanmoins la relation entre les deux n'est pas une relation linéaire, c'est-à-dire de proportionnalité. Les résultats obtenus sont en général concordants avec la théorie économique et financière et leurs implications pratiques peuvent être utiles aussi bien pour la banque que pour les entreprises clientes.
Resumo:
Nous voilà rendus à l'aube du troisième millénaire. Que de changements se sont produits depuis la révolution industrielle. Selon plusieurs auteurs cités par Defrenne et Delvaux (1990), nous sommes maintenant arrivés à la société postindustrielle que certains appellent la société super-industrielle, la post-civilisation, la société technétronique, la société technicisée et, pour Defrenne et Delvaux (1990), il s'agit de la société de l'incertitude. Pour eux, elle est une réplique du chaos planétaire où l'organisation se fait, se défait et se refait, jamais tout à fait semblable. Il nous apparaît important de définir ce que nous entendons par "organisation". Il s'agit d'un «groupement, association en général d'une certaine ampleur, qui se propose des buts déterminés» (Dictionnaire Petit Larousse, 1993) comme les organisations privées, publiques et para-publiques. Dans les organisations, ce véritable chaos se traduit par des processus de restructuration où l'on accorde souvent davantage d'importance à l'organisation et ses structures, et ce au détriment des individus qui y travaillent. Il en résulte une perte du potentiel des travailleurs, ce qui occasionne un déficit au plan des ressources humaines dont on ne soupçonne pas les conséquences pour l'organisation et les individus. Les propos qu'entretiennent les deux auteurs sont assez éloquents à ce sujet: «Les points de repères disparaissent sans être remplacés par d'autres, imprévus et imprévisibles, ils s'avèrent impuissants à faire face au changement, dont les composantes non gérées deviennent synonymes de facteurs de désordre. C'est pourquoi l'univers professionnel et la vulnérabilité des travailleurs reproduisent la fragilité de l'organisation. Ce désordre se traduit à l'intérieur des entreprises par des vécus désadaptatifs et des conduites dysfonctionnelles, de tous genres au travail. Ils entraînent des coûts psychologiques, sociaux, financiers et économiques importants. Ils peuvent aller jusqu'à ruiner les politiques, les stratégies et détruire l'image de l'organisation. À l'extérieur, les faits divers rapportent des incidents qui témoignent de fautes de gestion ou de spéculations douteuses, dévoilent les carences en matière d'intervention efficace, placent l'ensemble des entreprises dans un environnement mouvant et mutant par rapport auquel elles sont sommées de se réajuster perpétuellement.» (Defrenne et Delvaux 1990, p. 23) Cette société de l'incertitude, que nous décrivent ces deux auteurs, n'est pas sans conséquences pour les différents acteurs des organisations face à de futurs scénarios multiples, irréversibles et imprévisibles, engendrant des coûts dont on ne peut soupçonner l'ampleur. Devant de tels changements, la plupart des travailleurs vivront des transitions au cours de leur vie personnelle et professionnelle. Le conseiller d'orientation, un travailleur faisant partie de ce monde en mutation, est lui aussi touché. Il voit sa pratique se modifier, ses champs d'intervention traditionnelle se transforment peu à peu et d'autres commencent à s'ouvrir. À la différence de bien des travailleurs, le conseiller d'orientation possède des compétences et des connaissances qui lui seront très utiles dans un tel contexte de changement. En outre, il pourra les mettre au service des organisations aux prises avec de nouveaux besoins organisationnels engendrés par la société postindustrielle. Comme il devient impératif de tenir compte de plus en plus des besoins de l'individu dans une nouvelle gestion des ressources humaines, on ne doit pas seulement gérer les effectifs mais l'on doit également les développer et les mobiliser autour d'objectifs communs que sont ceux de l'organisation et des individus. Pour en arriver à mobiliser les travailleurs et les gestionnaires autour d'une même vision de l'organisation, certaines pratiques dans la gestion des ressources humaines doivent être renouvelées et appuyées par des programmes de développement de carrière, de formation de la main-d'oeuvre, d'aide aux transitions personnelles et professionnelles et par le développement des politiques de gestion des ressources humaines. Un grand défi demeure pour les organisations: comment faire face à de tels changements qui affectent à la fois la culture de l'organisation, les politiques, les méthodes de travail, les relations entre les travailleurs et le personnel cadre. Tout se bouscule pour eux à une vitesse qui est hors de contrôle, d'où l'importance pour les dirigeants de s'ouvrir à de nouvelles formes de gestion et de s'entourer de professionnels spécialisés dans les problématiques de l'individu au travail. La présente étude vise à tracer le portrait de la situation actuelle au Québec concernant la pratique des conseillers d'orientation dans les organisations. Ce document se divise en trois parties. Dans un premier temps, vous prendrez connaissance au chapitre 1 de la problématique dans laquelle vous retrouverez des informations concernant l'historique et l'évolution de la profession de conseiller d'orientation au coeur des transformations du marché du travail. Au chapitre 2, nous abordons la méthodologie utilisée pour la réalisation de cette enquête. Au chapitre 3, nous terminons enfin par l'analyse des résultats et l'interprétation. Cette consultation menée auprès des conseillers pratiquant dans les organisations, à titre soit d'employé, soit de consultant, nous a permis de recueillir plusieurs données concernant leurs caractéristiques, leurs pratiques et leurs besoins. Pour terminer, nous vous faisons part de nos conclusions.