922 resultados para Modèle de qualité


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’augmentation des chaleurs estivales jumelée à l’augmentation des fréquences de smog affectera la santé publique. Le phénomène des îlots de chaleur urbain apporte son lot d’impacts environnementaux, sociaux et économiques partout à travers le monde. La perte de biodiversité, les maladies pulmonaires, la pauvreté et contamination des sols, les dépenses astronomiques liées aux traitements des eaux pluviales obligent les acteurs du territoire à trouver des mesures d’atténuation plus durable et impactant. Dans la foulée, le verdissement sous l’approche de l’arbre apparait comme une des stratégies les plus douces et simples à mettre en œuvre. Les bénéfices encourus par ces grands êtres vivants que sont les arbres peuvent aussi jouer à la fois sur l’économie, l’environnement et la santé. D’où l’engouement des métropoles à verdir leur espace urbain : parc, corridor forestier, îlot de verdure, etc. Alors que certaines villes visent à augmenter leur indice de canopée, d’autres espèrent seulement procurer de meilleures conditions de vie à leur masse citoyenne. Dans les grandes villes et les régions occidentales, dont au Québec et à Montréal, le verdissement demeure un terme récent et méconnu. L’objectif du document est de recommander des méthodes d’actions de verdissement à l’échelle des parcs industriels montréalais. Celui de l’arrondissement d’Anjou a été choisi comme étude de cas. Les conclusions de l’analyse permettent de réaliser qu’un projet de plantation d’arbres en milieu industriel se déroule en 2 phases et 10 étapes. En tenant compte du diagnostic territorial réalisé en amont, les acteurs du territoire ciblent des enjeux afin d’établir des situations gagnantes aux projets de verdissement. Cette démarche vise à insuffler un nouveau visage aux parcs industriels montréalais. Les territoires industriels ont trop longtemps été des lieux ingrats, sous-utilisés et dépourvus d’arbres, toutefois ils témoignent d’un immense potentiel de verdissement. D’où la raison d’y accorder une importance. Pour faire face à ce changement de vision, les élus, les énarques et les acteurs du territoire montréalais doivent miser : sur le développement d’une cohérence des politiques sectorielles, sur le renforcement des règlements d’urbanismes, sur une réelle lutte aux ICU et à l’atteinte des objectifs du Plan d’action canopée, sur la création d’incitatifs économiques favorables, sur le développement des capacités et enfin sur le réseautage des citoyens ainsi que sur le réseautage des adeptes de l’aménagement durable.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les services rendus par la nature sont ébranlés par les activités économiques humaines, ce qui invite l’économie à changer de paradigme. L’économie circulaire dont découle la symbiose industrielle, comporte des espoirs de transition. Dans le cadre de l’essai, c’est la symbiose qui dévoilera ses propres pistes de mutation, par son modèle d’affaires. Celui-ci permet de détecter et de créer de la valeur dans les entreprises. Il existe plusieurs angles pour dévoiler le modèle d’affaires, mais c’est la perspective du système d’activité qui est sélectionnée. L’objectif principal de l’essai est d’explorer cette perspective, en l’appliquant sur une symbiose industrielle québécoise, soit celle du Centre local de développement de Brome-Missisquoi. Cette perspective est systémique et s’avère pertinente dans le contexte d’une symbiose. Puisque le modèle d’affaires permet de constater comment s’organise la symbiose pour créer de la valeur, le premier sous objectif est d’analyser celle-ci. En découle une étude comparative soulevant ses facteurs de succès et d’entrave. Les expériences de symbioses sont multiples et différenciées, mais certaines constantes peuvent être dégagées. Puisque son développement prend du temps, la mobilisation des acteurs comporte des défis. L’analyse de la rentabilité de la symbiose et de sa gouvernance peut outiller les intervenants pour faciliter son déploiement. Les retombées de la symbiose industrielle de Brome-Missisquoi sont positives. Afin de maintenir l’intérêt des participants et d’impulser la symbiose vers la pérennité, des recommandations sont formulées. Il est recommandé d’augmenter la diversité de ses parties prenantes de la symbiose, encadré par une réflexion stratégique co construite. La résilience de la symbiose en sera renforcie. Il importe de revenir sur la vision des membres et de développer leur compréhension du concept. Enfin, il est recommandé d’améliorer l’ancrage de la symbiose sur son territoire, en se greffant aux organisations déjà existantes, mais actuellement absentes du membariat. Des témoignages soulèvent des changements de pratiques notables chez certaines parties prenantes, ce qui semble indiquer que les symbioses industrielles favorisent le changement de paradigme.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Au Canada, les avalanches constituent le géorisque le plus dangereux en période hivernale. On enregistre annuellement d’importants coûts économiques et sociaux associés aux impacts de ce phénomène naturel. Par exemple, la fermeture de routes en cas de risque d’avalanche est estimée à 5 millions de dollars (Jamieson et Stethem, 2002). La prévision des avalanches est, de nos jours, la meilleure méthode afin d’éviter ces coûts. Au Canada, cela s’effectue de façon ponctuelle à l’aide de méthodes manuelles tel que le test de compression (CAA, 2014). Les modèles de simulation du couvert neigeux permettent d’étendre les prévisions à l’ensemble d’une région et ainsi, atteindre certains lieux difficilement accessibles pour l’homme. On tente actuellement d’adapter le modèle SNOWPACK aux conditions canadiennes et plusieurs études ont eu pour but d’améliorer les simulations produites par celui-ci. Cette étude vise donc également l’amélioration des simulations par l’intégration des paramètres de végétation. L’objectif de l’étude est de paramétrer, pour la première fois, le module de végétation de SNOWPACK avec les données récoltées dans la réserve faunique des Chic-Chocs. Nous pourrons ainsi évaluer l’impact de la végétation sur la modélisation du couvert nival. Nous avons donc, lors de sorties de terrain, recueillis les données de neige et de végétation au niveau de quatre sites d’étude. Nous avons par la suite réalisé les simulations avec SNOWPACK et comparer les résultats des simulations avec et sans végétation aux données de terrain. L’étude nous révèle que le modèle diminue la quantité de neige au sol ainsi que la densité du manteau neigeux en présence de végétation. De plus nous avons pu constater que l’inclusion du module de végétation permet d’obtenir des données qui se rapprochent davantage de ce qui a été observé sur le terrain.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’épuisement professionnel (ÉP) chez les psychothérapeutes constitue une problématique ayant un impact sur la qualité des soins offerts à des patients généralement vulnérables ou en état de détresse psychologique. Certaines recherches s’intéressant à l’étude de l’ÉP chez les psychothérapeutes ont fait état que certaines vulnérabilités narcissiques puissent prédisposer à l’ÉP. L’objectif principal de cette étude est de mieux comprendre l’influence que peuvent avoir les vulnérabilités narcissiques sur les symptômes de l’ÉP en prenant en considération le contexte de pratique. En deuxième temps, cette étude tente d’explorer la relation que l’empathie peut entretenir à la fois avec l’ÉP et avec le modèle à l’étude. Nous avons également pris en compte certaines variables démographiques. Afin de répondre aux objectifs de recherche, 240 participants âgés entre 24 et 77 ans ont été invités à remplir une batterie de questionnaires auto-administrés sur les variables à l’étude. Ces questionnaires sont le Pathological Narcissism Inventory (PNI), le Hypersensitive Narcissim Scale (HSNS), le Toronto Empathy Questionnaire (TEQ), le Interpersonal Reactivity Index (IRI), le Maslach Burnout Inventory – Human Services Survey (MBI-HSS), le Professional Quality of Life (ProQOL), et un questionnaire à propos des informations démographiques et du contexte de pratique de psychothérapie. Des analyses bivariées, de corrélation de Pearson et de régressions multiples hiérarchiques ont été conduites afin de répondre aux objectifs et aux hypothèses proposées. Les résultats indiquent, dans un premier temps, un lien négatif entre l’ÉP et différentes variables liées au contexte de pratique tel que le nombre d’années d’expérience de pratique en psychothérapie, et, dans iv un deuxième temps, plusieurs liens significatifs entre différentes mesures de l’ÉP et plusieurs aspects du narcissisme, majoritairement associé à la dimension vulnérable. L’empathie semble également avoir un rôle prédicteur de l’ÉP. La discussion rend compte du lien entre les variables démographiques et liées au contexte de pratique et l’ÉP, entre le narcissisme, plus particulièrement les aspects s’étant révélés significatifs lors des analyses, et l’ÉP, et du lien entre l’empathie, le narcissisme et l’ÉP, afin de réfléchir au rôle de l’empathie dans le modèle à l’étude. Les implications cliniques et scientifiques découlant des résultats, les limites de l’étude ainsi que les pistes de recherche futures sont présentées.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’encéphalopathie néonatale (EN) affecte plus de 0.8% des nouveau-nés à terme et est la deuxième cause d’handicap neurologique durant l’enfance. Le traitement des enfants atteints d’EN consiste en une prise en charge symptomatique et en l’hypothermie (HT). Néanmoins, plus de 50% des patients traités par HT gardent des séquelles neurologiques majeures. Les données provenant du Canadian Cerebral Palsy Registry montrent que l’HT prévient seulement 4% des cas de paralysie cérébrale (PC). Le fait que l’HT ait des effets neuroprotecteurs chez certains nouveau-nés, mais pas chez tous les nouveau-nés atteints d’EN n’est pas encore totalement élucidé. Il a été rapporté que les nouveau-nés exposés à l’inflammation (sepsis néonatal, infections placentaires) et à l’hypoxie-ischémie (HI) semblent avoir moins d’effets bénéfiques de l’HT que ceux qui ont été seulement exposés à l’HI. Des études précliniques ont établi que l’HT avait des effets neuroprotecteurs dans les cas d’encéphalopathies hypoxique-ischémiques chez les nouveau-nés à terme ou peu prématurés (plus de 35 semaines d’âge gestationnel). Cependant, peu d’études ont investigué les effets de l’HT lorsque l’EN résulte de la combinaison d’HI et d’infection/inflammation, alors qu’il s’agit du scénario pathophysiologique le plus fréquemment rencontré chez les nouveau-nés humains atteints d’EN. Ceci nous a amené à tester les effets neuroprotecteurs de l’HT dans un modèle animal (rat) d’EN induite par l’inflammation et l’HI. Des ratons Lewis au jour postnatal 12 sont injectés avec du lipopolysaccharide (LPS) d’E.coli afin de recréer l’inflammation, puis sont soumis à l’ischémie (ligature de la carotide commune droite) et à l’hypoxie (8% O[indice inférieur 2], 1h30). Les ratons sont ensuite traités ou non par l’HT (32 ± 0.5°C, 4 h). L‘étendue des lésions cérébrales ainsi que les cascades inflammatoires et oxydatives ont été étudiées. Nos résultats montrent que l’HT prévient l’étendue des lésions dans la composante de pénombre ischémique (néocortex et hippocampe). Cet effet neuroprotecteur est indépendant d’un effet anti-inflammatoire cérébral de l’HT portant sur le système de l’interleukine-1. Nos données indiquent que l’HT module l’expression des enzymes responsables de l’élimination des réactifs de l’oxygène (ROS). En conclusion, nos résultats montrent que l'HT a des effets neuroprotecteurs dans un modèle d’EN induite par l’exposition combinée au LPS et à l’HI. Ce projet devrait ouvrir des perspectives translationnelles pour prévenir la PC au-dede l'hypothermie seule, comme par exemple celle visant à tester le bénéfice de la combinaison thérapeutique d’HT jointe au blocage de cytokines pro-inflammatoires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’implantation d’organisations d’économie sociale et le développement de pratiques de consommation collaboratives contribuent à l’établissement d’un système économique durable permettant autant de réduire la pression sur l’environnement que de renforcer les liens au sein des communautés. Afin de favoriser l’implantation de ce type d’organisation, il faut tenir compte des facteurs qui influencent leur processus de prédémarrage et de démarrage. Pour cette raison, une enquête a été menée auprès de six entrepreneurs québécois pour identifier les difficultés à surmonter ou les éléments ayant facilité le processus de lancement de leur organisation. L’objectif de cet essai est de formuler des recommandations qui permettront aux décideurs politiques, gestionnaires et aspirants entrepreneurs d’améliorer leur approche face à ce type d’organisation afin de favoriser leur éclosion au Québec. L’analyse des entretiens démontre qu’il est critique pour les organisations d’économie sociale collaboratives d’attirer des utilisateurs autour du projet et de les mobiliser. Pour ce faire, les entrepreneurs ont dû élaborer un modèle d’affaires qui propose un service abordable et professionnel où l’interaction avec les individus est centrale, ainsi qu’une structure organisationnelle bien définie qui offre aux utilisateurs l’opportunité de s’impliquer activement dans le projet. De plus, l’établissement de partenariats doit être préconisé afin de donner de la visibilité au projet, ainsi que pour bâtir une crédibilité auprès de la communauté locale et des organismes d’accompagnement, d’autant plus que ces organisations peuvent fournir une aide financière et technique cruciale aux entrepreneurs. Malgré ceci, les barèmes des organismes d’accompagnement et la réglementation en vigueur semblent peu adaptés aux nouveaux modèles d’affaires collaboratifs, ce qui peut nuire à leur développement. À partir de ces résultats, il est recommandé aux décideurs politiques d’appuyer officiellement ces initiatives en développant notamment des partenariats publics-privés, ainsi qu’en assouplissant la réglementation liée à l’émission de permis pour ce type d’entreprise. Pour les entrepreneurs, il est suggéré de solliciter l’aide d’experts lors de l’élaboration de leur projet auprès d’incubateurs, d’initiatives collaboratives ou autres organismes. Enfin, il leur est conseillé de délimiter les pouvoirs des gestionnaires, de définir les tâches et de former les utilisateurs engagés afin d'inciter la cohésion et l’efficacité au sein de leurs organisations et pour assurer la qualité des services offerts.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Abstract : Images acquired from unmanned aerial vehicles (UAVs) can provide data with unprecedented spatial and temporal resolution for three-dimensional (3D) modeling. Solutions developed for this purpose are mainly operating based on photogrammetry concepts, namely UAV-Photogrammetry Systems (UAV-PS). Such systems are used in applications where both geospatial and visual information of the environment is required. These applications include, but are not limited to, natural resource management such as precision agriculture, military and police-related services such as traffic-law enforcement, precision engineering such as infrastructure inspection, and health services such as epidemic emergency management. UAV-photogrammetry systems can be differentiated based on their spatial characteristics in terms of accuracy and resolution. That is some applications, such as precision engineering, require high-resolution and high-accuracy information of the environment (e.g. 3D modeling with less than one centimeter accuracy and resolution). In other applications, lower levels of accuracy might be sufficient, (e.g. wildlife management needing few decimeters of resolution). However, even in those applications, the specific characteristics of UAV-PSs should be well considered in the steps of both system development and application in order to yield satisfying results. In this regard, this thesis presents a comprehensive review of the applications of unmanned aerial imagery, where the objective was to determine the challenges that remote-sensing applications of UAV systems currently face. This review also allowed recognizing the specific characteristics and requirements of UAV-PSs, which are mostly ignored or not thoroughly assessed in recent studies. Accordingly, the focus of the first part of this thesis is on exploring the methodological and experimental aspects of implementing a UAV-PS. The developed system was extensively evaluated for precise modeling of an open-pit gravel mine and performing volumetric-change measurements. This application was selected for two main reasons. Firstly, this case study provided a challenging environment for 3D modeling, in terms of scale changes, terrain relief variations as well as structure and texture diversities. Secondly, open-pit-mine monitoring demands high levels of accuracy, which justifies our efforts to improve the developed UAV-PS to its maximum capacities. The hardware of the system consisted of an electric-powered helicopter, a high-resolution digital camera, and an inertial navigation system. The software of the system included the in-house programs specifically designed for camera calibration, platform calibration, system integration, onboard data acquisition, flight planning and ground control point (GCP) detection. The detailed features of the system are discussed in the thesis, and solutions are proposed in order to enhance the system and its photogrammetric outputs. The accuracy of the results was evaluated under various mapping conditions, including direct georeferencing and indirect georeferencing with different numbers, distributions and types of ground control points. Additionally, the effects of imaging configuration and network stability on modeling accuracy were assessed. The second part of this thesis concentrates on improving the techniques of sparse and dense reconstruction. The proposed solutions are alternatives to traditional aerial photogrammetry techniques, properly adapted to specific characteristics of unmanned, low-altitude imagery. Firstly, a method was developed for robust sparse matching and epipolar-geometry estimation. The main achievement of this method was its capacity to handle a very high percentage of outliers (errors among corresponding points) with remarkable computational efficiency (compared to the state-of-the-art techniques). Secondly, a block bundle adjustment (BBA) strategy was proposed based on the integration of intrinsic camera calibration parameters as pseudo-observations to Gauss-Helmert model. The principal advantage of this strategy was controlling the adverse effect of unstable imaging networks and noisy image observations on the accuracy of self-calibration. The sparse implementation of this strategy was also performed, which allowed its application to data sets containing a lot of tie points. Finally, the concepts of intrinsic curves were revisited for dense stereo matching. The proposed technique could achieve a high level of accuracy and efficiency by searching only through a small fraction of the whole disparity search space as well as internally handling occlusions and matching ambiguities. These photogrammetric solutions were extensively tested using synthetic data, close-range images and the images acquired from the gravel-pit mine. Achieving absolute 3D mapping accuracy of 11±7 mm illustrated the success of this system for high-precision modeling of the environment.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche de développement est née d'une préoccupation au sujet du manque d'intérêt d'un grand nombre de garçons pour la lecture. Le problème est complexe et, si les interventions sur le terrain sont nombreuses et variées, il nous semblait qu'il manquait un fil conducteur pour les unifier et partant de là, pour garantir leur efficacité. C'est de là qu'est née la proposition d'un modèle de médiation en lecture, modèle basé sur la compétence professionnelle de l'enseignant, à la fois passeur culturel et lecteur, et suscitant le désir (motivation) et le plaisir de lire de l'élève masculin du primaire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'hypothèse sous-jacente au modèle de marché de SHARPE(1964) est que les actifs ont une tendance à évoluer ensemble seulement à cause du lien commun qu'ils ont avec le marché. Depuis lors, quelques recherches ont permis de découvrir qu'il y a d'autres facteurs qui influencent le mouvement des prix des actifs financiers. Notamment, KING(1963), MEYERS(1973), FARRELL(1970,74,77), LIVINGSTON(1977) et ARNOTT(1980) ont cerné quelques-uns de ces autres facteurs. ROLL et ROSS(1976) ont spécifié un modèle général qui tient compte de facteurs importants dans les marchés financiers. Cependant, les tests empiriques sur l'A.P.T. (arbitrage pricing theory) effectués par CHEN, ROLL et ROSS(1986) n'ont pas donné de résultats probants. L'objectif de cette étude sera d'étudier le comportement des sous-indices de la Bourse de Toronto pour créer un modèle multifacteurs selon la méthodologie de James L. FARRELL. En bref, on étudie les comportements des actifs financiers par l'utilisation de procédures de regroupements statistiques pour former quelques indices supplémentaires au modèle de marché de SHARPE(1964).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'objet de ce mémoire est de mesurer l'efficacité des programmes d'aide aux employés (PAE). Dans un deuxième temps, nous cherchons à identifier les facteurs explicatifs du succès des PAE. Nous avons conceptualisé ces interrogations autour d'un modèle théorique qui découpe le concept de succès des PAE en trois variables dépendantes soit, la résolution de la situation problématique, la satisfaction des usagers envers le PAE et l'amélioration de la performance au travail grâce et à la suite des consultations au PAE. De même, nous avons identifié quatre groupes de variables indépendantes susceptibles d'expliquer les variations dans le succès des PAE soit: le profil des usagers, les caractéristiques de la situation problématique, les caractéristiques de la consultation et finalement les caractéristiques de l'organisation à laquelle appartiennent les usagers. Pour évaluer ce modèle et afin de répondre à ces interrogations nous avons sondé par questionnaire vingt-deux usagers cliniques d'un PAE externe. L'échantillon était composé majoritairement de femmes âgées entre 30 et 49 ans, travaillant principalement dans des emplois professionnels. L'analyse quantitative des réponses nous a permis de conclure que généralement le PAE est assez efficace pour résoudre les situations problématiques vécues par ses usagers. Les résultats tendent aussi à montrer que les usagers du PAE sont très satisfaits des services dispensés. Il ressort finalement que, grâce aux consultations au PAE, l'impact négatif de la situation problématique sur la performance au travail de l'usager disparaît et même qu'en moyenne la performance au travail s'améliore légèrement. Suite aux analyses bi-variées, nous pouvons identifier certains facteurs explicatifs du succès des PAE. Les principales variables pour lesquelles le succès des PAE variait significativement étaient le sexe, l'âge, la catégorie d'emploi, le type de difficultés, l'urgence de la situation problématique, le motif de cessation des services, la taille de l'entreprise et la présence ou non d'un syndicat dans l'entreprise du répondant.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La qualité et la productivité sont les facteurs clés du succès d'une entreprise quel que soit le secteur dans lequel elle exerce ses activités. Ces facteurs reposent principalement sur la qualification de la main-d’œuvre qui peut être atteinte et maintenue grâce à des programmes de formation appropriés. La présente étude s'adresse à la problématique relative à l'identification des moyens pédagogiques les mieux adaptés dans un contexte de formation continue. Spécifiquement, nous comparons des méthodes et des stratégies d'enseignement utilisées dans le cadre de cours adressés à des professionnels de la comptabilité. Notre étude vise premièrement à mesurer l'effet de ces méthodes et stratégies sur l'apprentissage et deuxièmement à mesurer la satisfaction des candidats soumis à l'expérience. La méthode ainsi que les stratégies d'enseignement doivent découler d'un diagnostic afin de composer le modèle didactique approprié. Les éléments à considérer sont: l'apprenant, le sujet enseigné et le milieu. Nous avons basé le choix de la méthode et des stratégies d'enseignement sur les principes développés au sein de l'école du traitement de l'information qui elle-même, s'appuie sur les recherches en psychologie cognitive. Cette approche reconnaît la responsabilité de l'apprenant au cours du processus d'apprentissage. Nous avons également tenu compte des caractéristiques de l'apprenant adulte ainsi que des contraintes amenées par le sujet enseigné et le milieu. En général, les résultats obtenus, autant lors de l'évaluation des connaissances acquises que lors de l'évaluation de la satisfaction des participants, ne nous permettent pas de rejeter les hypothèses nulles voulant que l'apprentissage ou la satisfaction soient indépendantes des méthodes ou des stratégies d'enseignement utilisées. Toutefois, l'élaboration, une des stratégies retenues, nous a amené à constater une performance significativement supérieure dans le groupe expérimental.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les gestionnaires des ventes peuvent se servir de modèles de décision pour répartir de façon optimale les ressources marketing entre les produits et territoires. Ces modèles sont des équations mathématiques qui représentent la façon dont les ventes réagissent aux efforts marketing et peuvent être calibrés à partir de données objectives ou subjectives. Little (1971) affirme que les données subjectives sont plus efficaces parce qu'elles contiennent toute l'expérience des gestionnaires. À partir des recommandations de Little, Lodish (1971) a développé le modèle CALLPLAN afin d'aider les gestionnaires à répartir le temps de visites des représentants entre les clients ou les produits, de façon à maximiser les profits de l'entreprise. Pour calibrer ce modèle, les utilisateurs doivent utiliser les cinq données suivantes : les ventes prévues si aucune visite n'est effectuée, les ventes prévues avec une réduction de 50% des visites actuellement effectuées, les ventes actuelles, les ventes prévues si le nombre de visites est augmenté de 50% et les ventes prévues en effectuant un nombre infiniment grand de visites. Nous avons constaté que les modèles de répartition se basent tous sur les mêmes données pour estimer les paramètres des fonctions de réponse des ventes et que la valeur de ces données n'a jamais été évaluée empiriquement. Cette étude visait donc à évaluer la valeur des données subjectives utilisées dans la procédure d'estimation des paramètres du modèle CALLPLAN. À l'aide de simulations de jugements sur ordinateur, nous avons vérifié si la procédure d'estimation, telle que proposée par Lodish, peut être améliorée. Nous avons trouvé en essayant différentes combinaisons de cinq points, qu'effectivement la combinaison de Lodish n'est pas la meilleure pour estimer adéquatement les paramètres du modèle CALLPLAN. Quand la fonction de réponse des ventes est à priori en forme de S, les points utilisés devraient être les suivants ; les ventes prévues si aucune visite n'est effectuée (min), les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué (max), les ventes prévues avec le nombre de visites qui correspond au point d'inflexion (P.l.) de la fonction de réponse et les ventes prévues avec le nombre de visites qui correspond à la mi-distance du point d'inflexion et du niveau de ressource min. Quand la fonction de réponse est à priori concave, la combinaison de points utilisée devrait être ; les ventes prévues si aucune visite n'est effectuée, les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué, les ventes prévues en réduisant au quart le nombre de visites actuellement effectué et les ventes prévues en diminuant de 50% le nombre de visite actuellement utilisé. Nous avons également observé que les jugements concernant les ventes minimales et les ventes maximales influencent grandement les estimés. Nous avons donc trouvé un moyen d'atténuer leur impact en calculant des estimés moyens générés par les jugements individuels d'un groupe déjugés.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'analyse de la situation financière de l'entreprise sert à la prise de décision pour les parties intéressées à l'intérieur de l'entreprise, soit le gestionnaire et parfois le propriétaire et les autres qui se trouvent à l'extérieur, tels l'investisseur, le ministère du revenu, le banquier et le consultant. Dépendamment de l'utilisateur, l'information disponible n'est pas la même. L'investisseur, le banquier et le ministère du revenu doivent analyser l'entreprise à partir des données comptables publiées. Mais, les états financiers cachent parfois certaines réalités, tel un exercice financier ne représentant pas la saisonnalité des activités. De même les stocks de fin d'exercice ne représentent pas nécessairement le niveau du stock moyen. Les échéances de paiement surviennent peut-être au début plutôt qu'uniformément au cours de l'exercice. La signature de contrats importants pourra avoir des répercussions qu'au cours de l'exercice suivant. L'information interne seule peut répondre à ces questions. De plus, le résultat net publié dans les états financiers renferme certaines lacunes dont l'analyste doit tenir compte : 1- L'amortissement et l'évaluation des comptes-clients comportent une bonne part de subjectivité; 2- L'existence de plusieurs méthodes d'évaluation des stocks amène des problèmes de comparabilité, surtout lorsque ces postes ont une relative importance; 3- La dépréciation monétaire non prise en compte dans les états financiers diminue la comparabilité d'un exercice à l'autre et n'assure pas la préservation du patrimoine. Ainsi, les dividendes peuvent être versés au-dede ce qu'il serait prudent de verser pour assurer la capacité de fonctionnement; 4- En période de prospérité, l'entreprise tentera de minimiser son bénéfice comptable afin de diminuer sa charge fiscale alors qu'en période de déficit, elle tentera de maximiser son bénéfice comptable pour rassurer les propriétaires et les prêteurs; 5- L'inflation accentue les difficultés de comparaison. Il faudra donc tenir compte de l'inflation pour apprécier l'évolution réelle du résultat; 6- La comparaison avec plusieurs entreprises est quelque peu biaisée dû au choix des pratiques comptables exercées sur plusieurs postes. Les critères de comparaison devront donc être le moins possible dépendants de choix de pratiques comptables. Malgré l'existence de ces déformations comptables, les états financiers demeurent une source importante d'informations. Mais les forces et les faiblesses de l'entreprise s'en trouvent plus ou moins cachées. Comme le gestionnaire et le consultant ont accès aux données non publiées par l'entreprise, les résultats des activités et les données sur la qualité de la gestion interne peuvent donc être plus détaillés, et plus proches de la réalité. L'information publique, ne permet que de détecter les grandes lignes de la situation financière de l'entreprise. Les ouvrages en finance ne traitent que très peu de ces facteurs internes et du lien entre l'information interne et l'information externe. Le but de notre étude a été de créer un modèle de diagnostic de la situation financière, dans un premier temps, issu de la théorie et reposant sur les données externes et internes à l'entreprise. Dans un deuxième temps, nous avons construit un modèle plus complet qui tienne compte des interrelations des postes des états financiers et de l'interprétation faite par les praticiens, et dont la théorie ne fait pas état. L'intégration des connaissances des praticiens au modèle théorique initial et l'utilisation des données internes à l'entreprise, devraient permettre de porter un diagnostic plus éclairé de la situation financière de l'entreprise.