1000 resultados para Évaluation technologie


Relevância:

20.00% 20.00%

Publicador:

Resumo:

This analysis estimates several economic benefits derived from national implementation of the National Oceanic and Atmospheric Administration’s Physical Oceanographic Real-Time System (PORTS®) at the 175 largest ports in the United States. Significant benefits were observed owing to: (1) lower commercial marine accident rates and resultant reductions in morbidity, mortality and property damage; (2) reduced pollution remediation costs; and, (3) increased productivity associated with operation of more fully loaded commercial vessels. Evidence also suggested additional benefits from heightened commercial and recreational fish catch and diminished recreational boating accidents. Annual gross benefits from 58 current PORTS® locations exceeded $217 million with an addition $83 million possible if installed at the largest remaining 117 ports in the United States. Over the ten-year economic life of PORTS® instruments, the present value for installation at all 175 ports could approach $2.5 billion.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objectif : Évaluer l’impact de l’exposition d’un biofilm de Streptococcus mutans (S. mutans) pendant une période de 28 jours sur la rugosité de surface de matériaux de restauration dentaire. Matériel et méthode : Les matériaux testés étaient : six résines composites (fluide, bulk-fill fluide, microparticules, nanoparticules, microhybride et nanohybride), un verre ionomère conventionnel, un verre ionomère modifié à la résine, de l’amalgame, du disilicate de lithium et de la porcelaine feldspathique renforcie de cristaux de nanoleucite. Cent soixante-dix-sept disques de 5 mm de diamètre par 2 mm d’épaisseur ont été fabriqués et polis selon une méthode standardisée. Des répliques ont été fabriquées puis réservées pour les mesures de rugosité. Les échantillons ont été stérilisés puis placés dans un milieu de culture pendant 28 jours, avec S. mutans pour les groupes tests et sans S. mutans pour leurs contrôles. Le milieu de culture a été renouvelé toutes les 48 heures. De nouvelles répliques des échantillons ont été fabriquées. Finalement, la rugosité de la surface avant et après l’exposition au biofilm a été évaluée sur les répliques à l’aide d’un profilomètre. Les analyses statistiques ont été effectuées à l’aide d’un modèle d’analyse de variance à deux facteurs. Résultats : Aucune différence statistiquement significative n’a été notée entre la rugosité initiale et finale des groupes tests et des groupes contrôles (p < 0,05). Conclusion : Dans les limites de cette étude in vitro, l’exposition à un biofilm de S. mutans pendant 28 jours n’a pas démontré avoir d’impact sur la rugosité des matériaux testés.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The cultural valuation of biodiversity has taken on renewed importance over the last two decades as the ecosystem services framework has become widely adopted. Conservation initiatives increasingly use ecosystem service frameworks to render tropical forest landscapes and their peoples legible to market-oriented initiatives such as REDD+ and biodiversity offsetting schemes. Ecosystem service approaches have been widely criticized by scholars in the social sciences and humanities for their narrow focus on a small number of easily quantifiable and marketable services and a reductionist and sometimes simplistic approach to culture. We address the need to combine methods from each of the “three cultures” of natural science, quantitative social science, and qualitative social science/humanities in conceptualizing the relationship between cultural valuation and biodiversity conservation. We combine qualitative data with forest inventories and a quantitative index of cultural value to evaluate the relationship between cultural valuation and biodiversity conservation in Upper Guinea forest in Liberia, West Africa. Our study focuses on “sacred agroforests,” spaces that are associated with Mande macro-language speaking groups such as the Loma. We demonstrate that sacred agroforests are associated with different cultural values compared with secondary forests. Although biodiversity and biomass are similar, sacred agroforests exhibit a different species composition, especially of culturally salient species, increasing overall landscape agro-biodiversity. Sacred agroforests are also shaped and conserved by local cultural institutions revolving around ancestor worship, ritual, and the metaphysical conceptual category “salɛ.” We conclude that to understand the relationship between cultural valuation and biodiversity conservation, interpretivist approaches such as phenomenology should be employed alongside positivist ecosystem service frameworks.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les autorités gouvernementales canadiennes se sont données, depuis plus de 30 ans, une procédure pour évaluer les conséquences que les politiques, les plans ou les programmes fédéraux et provinciaux peuvent engendrer sur l’environnement. Si, avec le temps, l’évaluation a couvert une plus large définition de l’environnement pour intégrer les dimensions sociale et économique, la procédure d’évaluation environnementale stratégique est-elle pour autant adéquate? Y a-t-il un outil ou une méthode efficace qui pourrait améliorer son rendement? S’il est aujourd’hui accepté qu’un promoteur gouvernemental recherche l’acceptabilité sociale tout en mesurant les effets positifs et négatifs de son projet, ne pourrait-il pas adopter une méthodologie plus holistique et plus simple que la démarche d’identification et d’évaluation des impacts? C’est l’hypothèse qui sous-tend cet essai. L’objectif général de cet essai est de mener une réflexion sur l’utilisation de l’approche systémique dans l’élaboration de l’évaluation environnementale stratégique. En premier lieu, l’approche systémique sera étudiée de manière approfondie afin d’en faire ressortir ses bienfaits en matière de gestion de l’environnement. En second lieu, l’analyse de l’évaluation environnementale canadienne, américaine et européenne permettra de déceler les failles et les réussites dans la mise en place des plans, politiques et programmes. Finalement, une étude de cas sera utilisée pour valider l’hypothèse de travail. L’analyse révèle que l’utilisation de l’approche systémique dans le processus d’évaluation environnementale des plans, des politiques et des programmes est un outil judicieux et holistique hors pair. Non seulement cette méthode permet de tenir compte de toutes les préoccupations des parties prenantes, elle permet aussi de mieux cibler la problématique associée, d’adapter des mesures d’atténuation performantes et de mettre en oeuvre un programme de suivi efficace. Ces résultats démontrent le bénéfice d’utiliser une telle démarche dans ce processus rigoureux qu’est l’évaluation environnementale stratégique. En somme, l’utilisation de l’approche systémique dans l’élaboration de l’évaluation environnementale stratégique permettrait de mieux encadrer toutes les démarches visant à déceler les impacts positifs et négatifs sur l’environnement. Cet outil permettrait de satisfaire la volonté du gouvernement fédéral et des ministres promoteurs de promouvoir le développement de la société dans une perspective de développement durable.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introduction. Le don d’organes chez la clientèle pédiatrique demeure un domaine peu étudié. Malgré que la population pédiatrique représente moins de 10 % de l’ensemble des donneurs au Québec, il demeure que des donneurs potentiels ne sont pas identifiés et le taux de refus des familles demeure élevé. Les infirmières sont les seules professionnelles constamment au chevet des patients et, selon leurs dires, elles manquent de connaissances sur ce sujet. La formation des infirmières pourrait amener une meilleure connaissance du processus de don d’organes et un meilleur accompagnement des familles dans ce contexte. Par ailleurs, les formations sont peu nombreuses, coûteuses et ne sont pas basées sur une évaluation des besoins de formation identifiés par les infirmières elles-mêmes. Objectifs. Cette recherche avait pour but de développer et d’évaluer une activité de formation continue concernant le don d’organes pédiatrique et destinée aux infirmières de ce domaine de soins. Les objectifs étaient : 1) de décrire les composantes essentielles d’une formation continue concernant le processus de don d’organes, 2) valider ces composantes essentielles auprès des détenteurs d’enjeux, 3) construire une activité de formation basée sur ces composantes, 4) d’évaluer les connaissances et les intérêts avant et après l’activité de formation continue, et 5) d’évaluer la satisfaction des participants après la formation. Méthodologie. Le modèle de Michaud, Dionne et Beaulieu (2007) a servi de cadre conceptuel de la compétence dans cette étude et s’inspire du devis qualitatif évaluatif de 4e génération de Guba et Lincoln (1989). D’abord, pour l’évaluation des besoins, des données quantitatives issues d’un questionnaire préliminaire en ligne, suivi d’un forum de discussion virtuel, furent utilisés. Une activité de formation continue modulaire en ligne fut créée, combinée à un pré-test et post-test. À ce dernier était greffé un questionnaire de satisfaction des participants. Résultats. Au départ, 51 participants contribuèrent à l’établissement des besoins de formation. Pour la formation, 13 infirmières l’ont suivie et ont montré une amélioration de leurs connaissances, notamment au niveau du soutien aux familles et sur le concept de mort cérébrale. Le sentiment augmenté d’auto-efficacité, associé aux ressources internes furent partagés par les participants lors du questionnaire de satisfaction.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Étant donné l'étroitesse du marché canadien, la compagnie BHF Recherche de Bromptonville envisage d'aborder le plus tôt possible le marché américain. Le but de ce travail était donc de prendre certaines décisions de base et d'établir un cadre de travail théorique et une méthodologie qui permettent d'orienter efficacement la planification et l'exécution de ce projet de vente à l'étranger. Compte tenu de la position géographique de BHF, de ses moyens financiers et de la concentration des populations, le Nord-Est des États-Unis et plus particulièrement le Massachusetts semble être l'état idéal pour débuter les activités américaines. Avant d'attaquer cet état, BHF devra amasser des données lui permettant de mieux cerner la taille du marché, son degré de permissivité aux nouveaux produits et son fonctionnement (processus décisionnel quant à l'achat). Certaines améliorations techniques seraient profitables pour contrer la présence de quatre principaux concurrents, dont le MultiRanger Plus qui domine effrontément le marché. Comme BHF désire concentrer ses efforts sur la recherche et le développement, elle devra confier les tâches de distribution et de promotion à un intermédiaire. Ce dernier devra être sélectionné en tenant compte de sa réputation dans le milieu et du temps qu'il peut consacrer à la vente du Vérificateur. Les barrières tarifaires sont relativement restreintes pour le Vérificateur puisque les douanes américaines ne représentent qu'environ 5% du prix de vente de l'appareil. Ce prix fixé à 5 500$ US permet de dégager une marge bénéficiaire de 71,7%, et ce en excluant la commission de l'intermédiaire et les frais de promotion. Ces derniers sont heureusement partagés avec l'agent-distributeur et seront orientés vers deux pôles: le développement de contacts personnels avec la clientèle par le biais d'évènements spéciaux et la publicité dans les publications spécialisées. L'exportation constituant un projet d'investissement, des sorties de fonds seront nécessaires. Une évaluation primaire permet de chiffrer des besoins annuels variant de 14 000$ à 35 000$ entre 1990 et 1994. Heureusement, le projet pourrait s'autofinancer dès la deuxième année. Quant à la première année, une injection de 15 000$ devrait suffire, ce qui devrait être facilité par une aide gouvernementale au fédéral. Relativement au risque de crédit international habituellement lié à l'exportation, il apparaît que la clientèle des municipalités visées par BHF en soit pratiquement exempte, ce qui évitera le recours au crédit documentaire. Quant à la protection contre le risque de change, sa nécessité ne semble évidente que pour les ventes de plusieurs appareils à la fois, et ce à cause des frais reliés à cette protection.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La présente étude vise à définir le processus de transaction, des différentes composantes des coûts de transaction, et des différents moyens pour les mesurer. Plus particulièrement, cette étude porte sur l'utilité de l'évaluation des gestionnaires de portefeuille de l'Université de Sherbrooke par rapport aux coûts de transaction calculés par Abel Noser. Abel Noser est une firme de consultant de New York qui se spécialise dans l'évaluation des fonds de pension. Ils ont mesuré durant deux périodes, les commissions et l'impact de marché subi par des courtiers utilisés par les gestionnaires. L'objectif principal, voulait examiner s'il y avait eu une différence au niveau de l'impact de marché subi par les courtiers pour les deux périodes. Vu que les courtiers n'ont pas été avertis qu'ils étaient mesurés, on ne devrait pas trouver de différence significative. Par contre, s'il y a une différence entre les deux périodes, alors que les courtiers n'étaient pas informés, on pourra conclure que la mesure d'Abel Noser donne des résultats aléatoires puisque les courtiers ne sont pas sensés avoir cherché à contourner le système. La synthèse des résultats de la première hypothèse n'a pas permis de vérifier la validité de la mesure d'Abel Noser. Par contre, quand on se réfère aux critiques faites par plusieurs auteurs, la mesure d'Abel Noser peut porter à confusion. En conclusion, cette étude ne recommande donc pas au comité de retraite de l'Université de Sherbrooke d'utiliser les services d'Abel Noser.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En marketing, tout commence avec le consommateur... Comme le mentionnent Lies A & Trout J. (1987), "vous goûtez ce que vous comptez goûter, vous retenez ce que vous désirez retenir..."(p. 30) En fait, à travers l'ensemble des stimuli auxquels il est soumis, le consommateur se crée une perception de la réalité. Cette perception correspond à sa propre réalité. Les perceptions des consommateurs sont fondées sur une grande quantité d'informations et cette affirmation ouvre la porte à un champ de recherche très vaste. Il est aisé de concevoir qu'il est non seulement fondamental de se questionner sur les raisons de l'évolution des perceptions dans l'esprit du consommateur (en vue de connaître leurs causes et leurs origines), mais il est également important de s'interroger sur ce qu'elles sont, tout simplement. Car, rappelons-le, ce sont sur elles que repose la réalité du consommateur. Ainsi la réalité évolue. Nos aïeux n'auraient pu imaginer que l'homme irait un jour sur la lune et que l'automobile existerait... Ce qui était vrai il y a cent ans ne l'est plus forcément aujourd'hui. Le monde a changé, le contexte est différent, bref, l'homme dit moderne ne pourrait concevoir retourner au mode de vie d'antan, avec toutes ses sources d'inconfort...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans un contexte économique où globalisation des marchés et mondialisation des échanges commerciaux sont les mots d'ordre, nous assistons à une prolifération de produits hybrides ayant plus d'une origine nationale. Le made-in d'un produit n'a désormais plus de sens si on ne le scinde en deux concepts : le pays de conception où est "pensé" et conçu le produit et le pays d'assemblage où a lieu la fabrication physique du produit. Plusieurs recherches sur le made-in ont démontré que le pays de conception et le pays d'assemblage avaient effectivement une influence sur les évaluations de la qualité et de la valeur d'achat des produits par les consommateurs. L'objet de cette étude est de savoir si l'origine nationale a une influence sur un autre intervenant dans le processus d'achat : le vendeur et si cette influence est comparable à celle déjà observée chez le consommateur. 194 vendeurs d’appareils électroniques des villes de Montréal, Québec et Sherbrooke ont évalué des pays d'origine de niveaux de développement différents ainsi que la qualité et la valeur d'achat de trois catégories de produits : magnétoscopes, chaussures et automobiles. Chaque produit était caractérisé par cinq attributs : le pays de conception, le pays d'assemblage, la marque, la garantie et le prix. Les résultats obtenus ont été comparés à ceux issus d'une recherche antérieure sur l'influence du pays d'origine sur un échantillon de consommateurs (de Bussac, 1992). Cette étude comparative démontre notamment que les vendeurs, comme les consommateurs, associent des stéréotypes aux pays d'origine, stéréotypes qui influencent leur évaluation de la qualité et de la valeur d'achat des produits. Par ailleurs, la majorité des vendeurs interrogés pense que les consommateurs qu'ils rencontrent ne font pas de distinction entre pays de conception et pays d'assemblage. Il semble aussi que le pays d'origine est l'attribut du produit que les vendeurs utilisent le moins dans leur argumentation de vente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il existe une multitude de façons de protéger un portefeuille formé d'obligations contre une variation des taux d'intérêt qui pourrait affecter défavorablement la valeur marchande du portefeuille. L'une d'elles consiste à vendre des contrats à terme sur obligations afin que les variations de la valeur marchande du portefeuille soient compensées par les gains (ou les pertes) sur le marché à terme. Le succès d'une telle opération dépend de l'évaluation du ratio de couverture puisque c'est lui qui déterminera quelle quantité de contrats à terme il faudra vendre pour protéger le portefeuille. L'objectif de cette étude consiste à déterminer, parmi cinq méthodes d'estimation du ratio de couverture (une naïve et quatre théoriques), celle qui permet de minimiser la variance du rendement du portefeuille à couvrir tout en sacrifiant le moins possible en terme de rendement. Pour ce faire, nous avons utilisé neuf portefeuilles formés d'obligations du gouvernement du Canada ayant des caractéristiques (coupon, échéance) très différentes que nous avons couverts en utilisant le contrat à terme sur obligations du gouvernement du Canada qui se transige à la Bourse de Montréal. L'analyse des résultats nous a amené à conclure que la méthode naïve génère de meilleurs résultats que les méthodes théoriques lorsque le portefeuille à couvrir possède des caractéristiques semblables au titre qui sert de couverture. Dans tous les autres cas (où le portefeuille à couvrir a des caractéristiques très différentes du contrat à terme qui sert de couverture), la performance de la méthode naïve est plutôt médiocre, mais aucune autre méthode n'est supérieure aux autres sur une base régulière.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'objet de ce mémoire est de mesurer l'efficacité des programmes d'aide aux employés (PAE). Dans un deuxième temps, nous cherchons à identifier les facteurs explicatifs du succès des PAE. Nous avons conceptualisé ces interrogations autour d'un modèle théorique qui découpe le concept de succès des PAE en trois variables dépendantes soit, la résolution de la situation problématique, la satisfaction des usagers envers le PAE et l'amélioration de la performance au travail grâce et à la suite des consultations au PAE. De même, nous avons identifié quatre groupes de variables indépendantes susceptibles d'expliquer les variations dans le succès des PAE soit: le profil des usagers, les caractéristiques de la situation problématique, les caractéristiques de la consultation et finalement les caractéristiques de l'organisation à laquelle appartiennent les usagers. Pour évaluer ce modèle et afin de répondre à ces interrogations nous avons sondé par questionnaire vingt-deux usagers cliniques d'un PAE externe. L'échantillon était composé majoritairement de femmes âgées entre 30 et 49 ans, travaillant principalement dans des emplois professionnels. L'analyse quantitative des réponses nous a permis de conclure que généralement le PAE est assez efficace pour résoudre les situations problématiques vécues par ses usagers. Les résultats tendent aussi à montrer que les usagers du PAE sont très satisfaits des services dispensés. Il ressort finalement que, grâce aux consultations au PAE, l'impact négatif de la situation problématique sur la performance au travail de l'usager disparaît et même qu'en moyenne la performance au travail s'améliore légèrement. Suite aux analyses bi-variées, nous pouvons identifier certains facteurs explicatifs du succès des PAE. Les principales variables pour lesquelles le succès des PAE variait significativement étaient le sexe, l'âge, la catégorie d'emploi, le type de difficultés, l'urgence de la situation problématique, le motif de cessation des services, la taille de l'entreprise et la présence ou non d'un syndicat dans l'entreprise du répondant.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les gestionnaires des ventes peuvent se servir de modèles de décision pour répartir de façon optimale les ressources marketing entre les produits et territoires. Ces modèles sont des équations mathématiques qui représentent la façon dont les ventes réagissent aux efforts marketing et peuvent être calibrés à partir de données objectives ou subjectives. Little (1971) affirme que les données subjectives sont plus efficaces parce qu'elles contiennent toute l'expérience des gestionnaires. À partir des recommandations de Little, Lodish (1971) a développé le modèle CALLPLAN afin d'aider les gestionnaires à répartir le temps de visites des représentants entre les clients ou les produits, de façon à maximiser les profits de l'entreprise. Pour calibrer ce modèle, les utilisateurs doivent utiliser les cinq données suivantes : les ventes prévues si aucune visite n'est effectuée, les ventes prévues avec une réduction de 50% des visites actuellement effectuées, les ventes actuelles, les ventes prévues si le nombre de visites est augmenté de 50% et les ventes prévues en effectuant un nombre infiniment grand de visites. Nous avons constaté que les modèles de répartition se basent tous sur les mêmes données pour estimer les paramètres des fonctions de réponse des ventes et que la valeur de ces données n'a jamais été évaluée empiriquement. Cette étude visait donc à évaluer la valeur des données subjectives utilisées dans la procédure d'estimation des paramètres du modèle CALLPLAN. À l'aide de simulations de jugements sur ordinateur, nous avons vérifié si la procédure d'estimation, telle que proposée par Lodish, peut être améliorée. Nous avons trouvé en essayant différentes combinaisons de cinq points, qu'effectivement la combinaison de Lodish n'est pas la meilleure pour estimer adéquatement les paramètres du modèle CALLPLAN. Quand la fonction de réponse des ventes est à priori en forme de S, les points utilisés devraient être les suivants ; les ventes prévues si aucune visite n'est effectuée (min), les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué (max), les ventes prévues avec le nombre de visites qui correspond au point d'inflexion (P.l.) de la fonction de réponse et les ventes prévues avec le nombre de visites qui correspond à la mi-distance du point d'inflexion et du niveau de ressource min. Quand la fonction de réponse est à priori concave, la combinaison de points utilisée devrait être ; les ventes prévues si aucune visite n'est effectuée, les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué, les ventes prévues en réduisant au quart le nombre de visites actuellement effectué et les ventes prévues en diminuant de 50% le nombre de visite actuellement utilisé. Nous avons également observé que les jugements concernant les ventes minimales et les ventes maximales influencent grandement les estimés. Nous avons donc trouvé un moyen d'atténuer leur impact en calculant des estimés moyens générés par les jugements individuels d'un groupe déjugés.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans la plupart des décisions à caractère économique, les données boursières jouent un rôle prépondérant. Pourtant, les données comptables dont le bénéfice comptable figurant aux états financiers, servent à fournir de l'information utile pour la prise de décision à caractère économique. Le débat sur l'utilité des données comptables publiées dans les états financiers continue à avoir lieu. Une des questions le plus souvent posée porte plus spécifiquement sur l'utilité de ces données dans les décisions de sélection et d'évaluation de performance de portefeuille. Les résultats de cette recherche nous ont permis de conclure que les décisions de sélection et d'évaluation de performance de portefeuille fondées sur des données comptables sont cohérentes avec les mêmes décisions basées sur des données boursières.