85 resultados para Méthode des résidus pondérés


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Problématique : L'allaitement, encouragé par l'Organisation mondiale de la santé (OMS) comme mode d'alimentation idéal pour les mères et leurs enfants, devient de plus en plus populaire (Statistique Canada, 2012). Au Canada, son initiation dépasse 90 %, cependant 19 % des mères sèvrent dès le premier mois. Un des avantages attribué à l'allaitement est qu'il favorise la relation mère-bébé (Smith et Ellwood, 2011), mais qu'en est-il si l'expérience d'allaitement est difficile? Peu d’études explorent ce thème et surtout elles restent vagues sur les impacts d’une telle expérience sur la relation mère-bébé. But : L'étude vise à décrire l'établissement de la relation mère-bébé selon la perspective de mères ayant sevré suite à une expérience d'allaitement difficile. Méthode : Un devis mixte a été utilisé. Douze mères ont répondu à des questionnaires et participé à une entrevue individuelle portant sur l’expérience d’allaitement difficile menant au sevrage et sur la relation mère-bébé en contexte d'allaitement difficile. Des analyses descriptives ont été faites pour les données quantitatives et de contenu pour les données qualitatives. Résultats : Les difficultés d’allaitement ont commencé dès l’initiation et ont perduré toute la durée de l’expérience d’allaitement. Dans ce contexte d'allaitement difficile, les participantes ont rapporté être moins prédisposées à connaitre leur bébé, à communiquer avec lui et elles ont vécu des échanges affectifs positifs et négatifs avec lui. Suite au sevrage, elles ont dit découvrir et communiquer davantage avec leur bébé. Avec les difficultés d’allaitement et le choix de sevrer, elles sont appelées à redéfinir leur rôle de mère auprès de leur bébé et elles ont ressenti une culpabilité passagère. Face à aux défis d’être attentive à la relation avec leur bébé, d’évoluer dans le rôle de mère et de dépasser la culpabilité vécue, les mères ont besoin de soutien. Retombées : En contexte d'allaitement difficile, la relation mère-bébé pourrait bénéficier du soutien des infirmières qui ont une proximité avec les dyades mère-bébé pour les aider à surmonter les défis relationnels. Suite au sevrage, les mères ont besoin d'être soutenues particulièrement face à la culpabilité ressentie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Au Canada, les avalanches constituent le géorisque le plus dangereux en période hivernale. On enregistre annuellement d’importants coûts économiques et sociaux associés aux impacts de ce phénomène naturel. Par exemple, la fermeture de routes en cas de risque d’avalanche est estimée à 5 millions de dollars (Jamieson et Stethem, 2002). La prévision des avalanches est, de nos jours, la meilleure méthode afin d’éviter ces coûts. Au Canada, cela s’effectue de façon ponctuelle à l’aide de méthodes manuelles tel que le test de compression (CAA, 2014). Les modèles de simulation du couvert neigeux permettent d’étendre les prévisions à l’ensemble d’une région et ainsi, atteindre certains lieux difficilement accessibles pour l’homme. On tente actuellement d’adapter le modèle SNOWPACK aux conditions canadiennes et plusieurs études ont eu pour but d’améliorer les simulations produites par celui-ci. Cette étude vise donc également l’amélioration des simulations par l’intégration des paramètres de végétation. L’objectif de l’étude est de paramétrer, pour la première fois, le module de végétation de SNOWPACK avec les données récoltées dans la réserve faunique des Chic-Chocs. Nous pourrons ainsi évaluer l’impact de la végétation sur la modélisation du couvert nival. Nous avons donc, lors de sorties de terrain, recueillis les données de neige et de végétation au niveau de quatre sites d’étude. Nous avons par la suite réalisé les simulations avec SNOWPACK et comparer les résultats des simulations avec et sans végétation aux données de terrain. L’étude nous révèle que le modèle diminue la quantité de neige au sol ainsi que la densité du manteau neigeux en présence de végétation. De plus nous avons pu constater que l’inclusion du module de végétation permet d’obtenir des données qui se rapprochent davantage de ce qui a été observé sur le terrain.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’ionomycine est un ionophore produit par la bactérie gram-positive streptomyces conglobatus. Sa synthèse représente un défi, car il possède plusieurs centres chiraux dans un motif polypropylène. De plus, la grande densité d’oxygène sur celui-ci oblige l’utilisation de plusieurs protections orthogonales. Notre stratégie divise l’ionomycine en quatre fragments, trois possédant le motif polypropylène, ainsi qu’un quatrième, bis-tétrahydrofuranne. Les trois premiers sont synthétisés en utilisant une méthodologie puissante développée dans le laboratoire du Pr Spino, qui utilise l’addition d’alkylcyanocuprates sur les carbonates allyliques dérivés de la menthone. Celle-ci permet l’introduction d’une unité propylène, avec un excellent contrôle du centre chiral introduit. Cette méthode est utilisée de manière itérative, afin d’introduire plusieurs unités propylènes. De plus, notre stratégie est hautement convergente, puisque des intermédiaires des fragments plus courts servent de produit de départ pour la synthèse des fragments plus longs. Le dernier fragment, bis-tétrahydrofuranne, a été fabriqué à partir de l’acétate de géranyle, par une polycyclisation d’un diépoxyde chiral, les époxydes ayant été introduits par une époxydation de Shi. Cette synthèse, si complétée, serait la plus courte publiée, avec 24 étapes pour la séquence linéaire la plus longue (51 au total).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’objectif de cet essai est de démystifier la tarification incitative et de présenter un outil pratique pour l’implantation réussie d’un système de tarification incitative de la collecte municipale des matières résiduelles au Québec. Cinq sous-objectifs mènent à cette réponse : les raisons du non-emploi de la tarification incitative au Québec, l’analyse des cas à succès en Amérique du Nord et en Europe, l’identification des préalables nécessaires à l’implantation, les étapes opérationnelles de la mise en œuvre et la communication adéquate du processus. L’importance du sujet de cet essai découle des coûts de la gestion des matières résiduelles. Ils voient une augmentation constante due aux redevances à l’élimination et aux nouvelles méthodes de valorisation pour les matières organiques. Une mise à jour de la tarification municipale est donc indispensable. La tarification incitative est un outil efficace pour la réduction des matières résiduelles produites et enfouies ainsi que pour améliorer le taux de récupération résidentiel. De nombreux cas réussis existent en Amérique du Nord. Néanmoins, seulement deux municipalités québécoises utilisent ce système à présent. Des résultats trouvés indiquent qu’une tarification incitative fonctionnelle dépend de l’adaptation du système aux particularités de chaque municipalité. Ceci s’applique au choix du contenant de collecte, des modalités de la facturation et à l’élaboration de la grille tarifaire. En préparation du projet, il est important d’offrir le plus de services complémentaires que possibles afin d’inciter un taux de récupération maximal. Ces services comportent des outils pour le compostage maison, un écocentre pour apport de matières additionnelles ainsi que des collectes spéciales pour les matières organiques, les encombrants et les résidus de construction. Neuf étapes d’une implantation réussie ont été identifiées. La base de chaque projet de tarification incitative est une étude économique et logistique préalable qui permet l’élaboration du scénario choisi. Un projet pilote lancé dans un échantillon de la population aide ensuite à peaufiner la méthode. La préparation de l’appel d’offres et le vote du projet s'en suivent. La mise en œuvre présente un contact avec les citoyens lors de la distribution et mise à jour des contenants de collecte. Par la suite, la municipalité à l’option de commencer par un test à blanc avant d’introduire la tarification complète lors du lancement. Enfin, un suivi par bilans annuels publiés s’impose. Une communication adéquate avant, pendant et après l’implantation est indispensable. La réussite du projet est fortement améliorée par l’allocation d’un chargé de projet responsable dès le début et la portée du projet par les élus.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abstract : The structural build-up of fresh cement-based materials has a great impact on their structural performance after casting. Accordingly, the mixture design should be tailored to adapt the kinetics of build-up given the application on hand. The rate of structural build-up of cement-based suspensions at rest is a complex phenomenon affected by both physical and chemical structuration processes. The structuration kinetics are strongly dependent on the mixture’s composition, testing parameters, as well as the shear history. Accurate measurements of build-up rely on the efficiency of the applied pre-shear regime to achieve an initial well-dispersed state as well as the applied stress during the liquid-solid transition. Studying the physical and chemical mechanisms of build-up of cement suspensions at rest can enhance the fundamental understanding of this phenomenon. This can, therefore, allow a better control of the rheological and time-dependent properties of cement-based materials. The research focused on the use of dynamic rheology in investigating the kinetics of structural build-up of fresh cement pastes. The research program was conducted in three different phases. The first phase was devoted to evaluating the dispersing efficiency of various disruptive shear techniques. The investigated shearing profiles included rotational, oscillatory, and combination of both. The initial and final states of suspension’s structure, before and after disruption, were determined by applying a small-amplitude oscillatory shear (SAOS). The difference between the viscoelastic values before and after disruption was used to express the degree of dispersion. An efficient technique to disperse concentrated cement suspensions was developed. The second phase aimed to establish a rheometric approach to dissociate and monitor the individual physical and chemical mechanisms of build-up of cement paste. In this regard, the non-destructive dynamic rheometry was used to investigate the evolutions of both storage modulus and phase angle of inert calcium carbonate and cement suspensions. Two independent build-up indices were proposed. The structural build-up of various cement suspensions made with different cement contents, silica fume replacement percentages, and high-range water reducer dosages was evaluated using the proposed indices. These indices were then compared to the well-known thixotropic index (Athix.). Furthermore, the proposed indices were correlated to the decay in lateral pressure determined for various cement pastes cast in a pressure column. The proposed pre-shearing protocol and build-up indices (phases 1 and 2) were then used to investigate the effect of mixture’s parameters on the kinetics of structural build-up in phase 3. The investigated mixture’s parameters included cement content and fineness, alkali sulfate content, and temperature of cement suspension. Zeta potential, calorimetric, spectrometric measurements were performed to explore the corresponding microstructural changes in cement suspensions, such as inter-particle cohesion, rate of Brownian flocculation, and nucleation rate. A model linking the build-up indices and the microstructural characteristics was developed to predict the build-up behaviour of cement-based suspensions The obtained results showed that oscillatory shear may have a greater effect on dispersing concentrated cement suspension than the rotational shear. Furthermore, the increase in induced shear strain was found to enhance the breakdown of suspension’s structure until a critical point, after which thickening effects dominate. An effective dispersing method is then proposed. This consists of applying a rotational shear around the transitional value between the linear and non-linear variations of the apparent viscosity with shear rate, followed by an oscillatory shear at the crossover shear strain and high angular frequency of 100 rad/s. Investigating the evolutions of viscoelastic properties of inert calcite-based and cement suspensions and allowed establishing two independent build-up indices. The first one (the percolation time) can represent the rest time needed to form the elastic network. On the other hand, the second one (rigidification rate) can describe the increase in stress-bearing capacity of formed network due to cement hydration. In addition, results showed that combining the percolation time and the rigidification rate can provide deeper insight into the structuration process of cement suspensions. Furthermore, these indices were found to be well-correlated to the decay in the lateral pressure of cement suspensions. The variations of proposed build-up indices with mixture’s parameters showed that the percolation time is most likely controlled by the frequency of Brownian collisions, distance between dispersed particles, and intensity of cohesion between cement particles. On the other hand, a higher rigidification rate can be secured by increasing the number of contact points per unit volume of paste, nucleation rate of cement hydrates, and intensity of inter-particle cohesion.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abstract : Images acquired from unmanned aerial vehicles (UAVs) can provide data with unprecedented spatial and temporal resolution for three-dimensional (3D) modeling. Solutions developed for this purpose are mainly operating based on photogrammetry concepts, namely UAV-Photogrammetry Systems (UAV-PS). Such systems are used in applications where both geospatial and visual information of the environment is required. These applications include, but are not limited to, natural resource management such as precision agriculture, military and police-related services such as traffic-law enforcement, precision engineering such as infrastructure inspection, and health services such as epidemic emergency management. UAV-photogrammetry systems can be differentiated based on their spatial characteristics in terms of accuracy and resolution. That is some applications, such as precision engineering, require high-resolution and high-accuracy information of the environment (e.g. 3D modeling with less than one centimeter accuracy and resolution). In other applications, lower levels of accuracy might be sufficient, (e.g. wildlife management needing few decimeters of resolution). However, even in those applications, the specific characteristics of UAV-PSs should be well considered in the steps of both system development and application in order to yield satisfying results. In this regard, this thesis presents a comprehensive review of the applications of unmanned aerial imagery, where the objective was to determine the challenges that remote-sensing applications of UAV systems currently face. This review also allowed recognizing the specific characteristics and requirements of UAV-PSs, which are mostly ignored or not thoroughly assessed in recent studies. Accordingly, the focus of the first part of this thesis is on exploring the methodological and experimental aspects of implementing a UAV-PS. The developed system was extensively evaluated for precise modeling of an open-pit gravel mine and performing volumetric-change measurements. This application was selected for two main reasons. Firstly, this case study provided a challenging environment for 3D modeling, in terms of scale changes, terrain relief variations as well as structure and texture diversities. Secondly, open-pit-mine monitoring demands high levels of accuracy, which justifies our efforts to improve the developed UAV-PS to its maximum capacities. The hardware of the system consisted of an electric-powered helicopter, a high-resolution digital camera, and an inertial navigation system. The software of the system included the in-house programs specifically designed for camera calibration, platform calibration, system integration, onboard data acquisition, flight planning and ground control point (GCP) detection. The detailed features of the system are discussed in the thesis, and solutions are proposed in order to enhance the system and its photogrammetric outputs. The accuracy of the results was evaluated under various mapping conditions, including direct georeferencing and indirect georeferencing with different numbers, distributions and types of ground control points. Additionally, the effects of imaging configuration and network stability on modeling accuracy were assessed. The second part of this thesis concentrates on improving the techniques of sparse and dense reconstruction. The proposed solutions are alternatives to traditional aerial photogrammetry techniques, properly adapted to specific characteristics of unmanned, low-altitude imagery. Firstly, a method was developed for robust sparse matching and epipolar-geometry estimation. The main achievement of this method was its capacity to handle a very high percentage of outliers (errors among corresponding points) with remarkable computational efficiency (compared to the state-of-the-art techniques). Secondly, a block bundle adjustment (BBA) strategy was proposed based on the integration of intrinsic camera calibration parameters as pseudo-observations to Gauss-Helmert model. The principal advantage of this strategy was controlling the adverse effect of unstable imaging networks and noisy image observations on the accuracy of self-calibration. The sparse implementation of this strategy was also performed, which allowed its application to data sets containing a lot of tie points. Finally, the concepts of intrinsic curves were revisited for dense stereo matching. The proposed technique could achieve a high level of accuracy and efficiency by searching only through a small fraction of the whole disparity search space as well as internally handling occlusions and matching ambiguities. These photogrammetric solutions were extensively tested using synthetic data, close-range images and the images acquired from the gravel-pit mine. Achieving absolute 3D mapping accuracy of 11±7 mm illustrated the success of this system for high-precision modeling of the environment.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Étant donné l'étroitesse du marché canadien, la compagnie BHF Recherche de Bromptonville envisage d'aborder le plus tôt possible le marché américain. Le but de ce travail était donc de prendre certaines décisions de base et d'établir un cadre de travail théorique et une méthodologie qui permettent d'orienter efficacement la planification et l'exécution de ce projet de vente à l'étranger. Compte tenu de la position géographique de BHF, de ses moyens financiers et de la concentration des populations, le Nord-Est des États-Unis et plus particulièrement le Massachusetts semble être l'état idéal pour débuter les activités américaines. Avant d'attaquer cet état, BHF devra amasser des données lui permettant de mieux cerner la taille du marché, son degré de permissivité aux nouveaux produits et son fonctionnement (processus décisionnel quant à l'achat). Certaines améliorations techniques seraient profitables pour contrer la présence de quatre principaux concurrents, dont le MultiRanger Plus qui domine effrontément le marché. Comme BHF désire concentrer ses efforts sur la recherche et le développement, elle devra confier les tâches de distribution et de promotion à un intermédiaire. Ce dernier devra être sélectionné en tenant compte de sa réputation dans le milieu et du temps qu'il peut consacrer à la vente du Vérificateur. Les barrières tarifaires sont relativement restreintes pour le Vérificateur puisque les douanes américaines ne représentent qu'environ 5% du prix de vente de l'appareil. Ce prix fixé à 5 500$ US permet de dégager une marge bénéficiaire de 71,7%, et ce en excluant la commission de l'intermédiaire et les frais de promotion. Ces derniers sont heureusement partagés avec l'agent-distributeur et seront orientés vers deux pôles: le développement de contacts personnels avec la clientèle par le biais d'évènements spéciaux et la publicité dans les publications spécialisées. L'exportation constituant un projet d'investissement, des sorties de fonds seront nécessaires. Une évaluation primaire permet de chiffrer des besoins annuels variant de 14 000$ à 35 000$ entre 1990 et 1994. Heureusement, le projet pourrait s'autofinancer dès la deuxième année. Quant à la première année, une injection de 15 000$ devrait suffire, ce qui devrait être facilité par une aide gouvernementale au fédéral. Relativement au risque de crédit international habituellement lié à l'exportation, il apparaît que la clientèle des municipalités visées par BHF en soit pratiquement exempte, ce qui évitera le recours au crédit documentaire. Quant à la protection contre le risque de change, sa nécessité ne semble évidente que pour les ventes de plusieurs appareils à la fois, et ce à cause des frais reliés à cette protection.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Alors que la pratique de redresser les états financiers pour les rendre conformes à la méthode de l'impôt exigible semble répandue parmi les analystes financiers, les organismes de normalisation en Amérique du Nord s'attachent à la formule d'application de la méthode du report intégral d'impôt. De son côté, la présente étude vise à contribuer au débat, toujours en cours, entre cette dernière méthode et celle de l'impôt exigible. Conséquemment, la première hypothèse posée est à l'effet que le contenu informationnel de la méthode du report d'impôt intégral et fixe, en vigueur au Canada, est plus grand que celui de la méthode de l'impôt exigible. Selon la deuxième hypothèse, les renseignements sur les écarts temporaires fournis par voie de notes aux états financiers ont un contenu informationnel. Ces deux hypothèses sont testées empiriquement en s'intéressant, plus spécifiquement, aux réactions individuelles d'un échantillon d'utilisateurs d'états financiers, lors d'une expérimentation en laboratoire utilisant un devis intra-groupes. Au total, 152 questionnaires ont été reçus, dont 119 pour les comptables agréés du secteur industriel et affaires de la région de Montréal et 33 pour les membres de l'Association des analystes financiers de Montréal. Les résultats permettent de conclure que la méthode du report d'impôt intégral et fixe implique un contenu informationnel plus grand que la méthode de l'impôt exigible. Toutefois, les renseignements sur les écarts temporaires fournis par voie de notes aux états financiers ne montrent un contenu informationnel, d'une façon statistiquement significative, que pour une des variables dépendantes de l'expérimentation. Globalement, les résultats semblent démontrer la nécessité d'un certain degré de répartition des impôts et indiquer un besoin de renseignements complémentaires sur les écarts temporaires. De plus, on peut raisonnablement avancer que les résultats appuient le SFAS No 109 du FASB, promulgué en 1992 aux États-Unis, exigeant la méthode dite de l'actif et du passif. Les résultats mitigés de l'expérimentation en laboratoire et surtout la diversité des réponses, aux mesures directes explicites et implicites de l'utilisation des informations sur les écarts temporaires, semblent confirmer qu'il y a également une très grande diversité dans la façon de considérer ces dernières informations en pratique. La présente étude soulève plusieurs avenues de recherches dont celle, apparaissant particulièrement prometteuse, sur les écarts temporaires causés par les différences entre l'amortissement comptable et fiscal, mais cette fois-ci, en contexte de décroissance d'une entreprise. On peut donc conclure que la comptabilisation des impôts est loin d'avoir fini de faire couler de l'encre...

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Comme les résultats obtenus relativement à la relation entre l'utilisation de la capitalisation et le niveau d'endettement de l'entreprise sont difficiles à généraliser, ils ne permettent pas de conclure à l'existence d'une telle relation. Or, il a été démontré dans la littérature comptable, qu'en absence de normalisation, les entreprises endettées favorisent la méthode de capitalisation. Cela suggère donc que les critères énoncés par l'ICCA limitent le recours à la capitalisation. Les résultats obtenus relativement à la proportion des frais de développement capitalisés suggèrent qu'aucune relation n'existe entre la proportion capitalisée et le niveau d'endettement de l'entreprise. Cela suggère que les critères énoncés limitent le montant des frais de développement capitalisés. Par ailleurs, une association négative a été observée entre le recours à l'imputation et la taille des entreprises. Ce résultat est surprenant car les grandes entreprises sont vraisemblablement fructueuses et ont de bonnes chances de satisfaire les critères énoncés par l'ICCA. Cela suggère que les grandes entreprises se soustraient à l'obligation de capitaliser leurs frais de développement et que cela est vraisemblablement toléré par l'ICCA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Depuis le début des années '30, nous remarquons un intérêt marqué de la part de certains chercheurs pour explorer la fiabilité et la validité de l'analyse de l'écriture; toutefois, nous constatons que la méthode de la graphologie demeure jusqu'à présent la plus étudiée et la plus répandue. Comme principal champs d'intérêt, ces études n'ont jusqu'alors tenté que de démontrer si l'analyse de l'écriture se voyait un instrument de mesure valide 1). pour la sélection du personnel, 2). comme prédicteur de succès pour un poste donné, ou encore, 3). comme substitut aux tests de personnalité. Cependant, à notre connaissance, aucune recherche scientifique n'a présenté d'étude comparative entre l'analyse de l'écriture (graphoanalyse) et les tests dits d'aptitudes, couramment utilisés par les conseillers et conseillères d'orientation. Le présent essai soulève donc essentiellement cette interrogation: la graphoanalyse peut-elle servir d'instrument de mesure valide comme test d'aptitudes pour les conseillers et conseillères d'orientation? De façon plus précise, nous comparerons la graphoanalyse à la Batterie Générale des Tests d'Aptitudes (B.G.T.A.); test bien connu des conseillers et conseillères d'orientation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'école d'hier faisait de la grammaire et de l'analyse un usage prépondérant dans l'apprentissage de la langue. Une longue série de règles appliquées dans des exercices structurés préparait une certaine élite d'étudiants à "faire leurs humanités". Le temps passe, les choses évoluent, la grammaire se transforme. Lorsque nous avons commencé à enseigner au niveau élémentaire, les cours de grammaire et d'analyse ne différaient pas tellement de ceux des générations antérieures. Puis vinrent les années '70. Un programme cadre est instauré. Les maîtres endossent la responsabilité de la méthode utilisée et de son application. Une période d'instabilité se creuse, dont les élèves sont les plus grandes victimes. Nous atteignons la période critique où l'on constate que peu d'enfants maîtrisent leur orthographe d'usage à la fin de leur cours primaire. À qui imputer la faute? Devons-nous revenir à un enseignement systématique de la grammaire? Cette période nous aura permis de constater l'inefficacité de nos leçons traditionnelles en vue d'acquisitions orthographiques chez nos enfants; préférence accordée à l'induction des règles grammaticales usuelles; élimination des connaissances grammaticales inutiles aux besoins immédiats des élèves. Telle Tut notre option en ce qui concerne la grammaire. Mais que dire de l'analyse logique? […]

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans la Fonction publique, cependant, il existe une certaine forme de maximum mérite depuis la mise en application en 1978 d'une méthode dite par "attentes signifiées". Officiellement, le système sert à établir les hausses annuelles de traitement. En pratique, comme les crédits budgétaires du gouvernement sont limités, une fois les hausses minimales de traitement accordées à tous, il ne reste pas suffisamment d'argent pour rendre significative l'appréciation du rendement des cadres jugés exceptionnels. Si, comme système de rémunération au mérite, tous les experts s'entendent pour dire que le système par attentes signifiées fut un échec, cependant, comme outil de gestion (planification et support à la définition d'objectifs opérationnels), le système a fini peu à peu par réussir une implantation satisfaisante, étant reconnu comme facilitateur de la cohérence organisationnelle grâce à l'énoncé d'objectifs clairs, connus et mesurables. Le secteur de l'Éducation pour sa part utilise une structure de classification et de rémunération de ses cadres reposant principalement sur le niveau d'enseignement dispensé et la clientèle scolaire. Les systèmes d'évaluation du rendement des cadres en place dans les commissions scolaires et les collèges ne servent généralement pas à distinguer les performances des individus aux fins de détermination de l'annualité; ils visent plutôt, comme nous le verrons plus loin, des objectifs de maintien ou d'amélioration du rendement des individus.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire se divise en quatre chapitres: 1. la problématique, 2. la méthodologie, 3. la présentation et 4. la discussion des résultats. Au cours de la problématique, nous allons essayer de cerner le phénomène que nous proposons d'étudier. Pour y parvenir, tour à tour, des connaissances sur le monde des assurances de dommages dans son contexte de transformation, sur le concept de qualification, complexe et difficile à délimiter, sur la dimension dynamique du concept de qualification et, enfin, sur les différents modes d'organisation du travail dans le monde des assurances seront exposées. Au fil de l'exposé, les faits saillants qui permettront d'aboutir, logiquement et sans heurt, à la présentation du problème de recherche seront soulignés. Après, la présentation du problème de recherche, nous conclurons le chapitre posant la problématique. Une fois le problème posé, dans le deuxième chapitre, nous traiterons de la méthodologie de la recherche. La discussion des choix méthodologiques et les modalités d'exécution de ces choix seront simultanément exposés dans cette partie du mémoire. Les principaux éléments méthodologiques concerneront la recherche qualitative, la stratégie de l'étude de cas, le choix du site de la recherche, l'accès au site de la recherche, l'entrevue semi-directive, la méthode d'analyse des données et les critères de scientificité. Les chapitres 3. et 4. sont présentés par sections intermittentes. C'est-à-dire que ces deux chapitres sont divisés en plusieurs sections et qu'après chaque • segment de résultats présentés suivra une discussion sur les phénomènes décrits. Les raisons pour lesquelles nous avons choisi d'imbriquer les résultats avec les discussions étaient d'en simplifier la compréhension et d'en rendre la lecture plus stimulante. Lors de la présentation des résultats, nous nous attarderons à rendre compte des informations que nous aurons recueillies sur la déqualification/requalification des agents d'assurances. Les présentations, surtout descriptives, seront aussi près de la réalité que possible. Quelques hypothèses de travail seront formulées et de multiples extraits d'entrevue seront utilisés pour illustrer nos propos. Ensuite, lors des discussions, nous confronterons les résultats aux différents écrits pertinents issus des milieux scientifiques et des revues spécialisées en assurances. L'ensemble des présentations des résultats et des discussions aura pour objet d'éclairer suffisamment le phénomène à l'étude pour permettre d'établir la nature de la déqualification/requalification des agents d'assurances.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La problématique de cette recherche trouve son existence dans le fait que la motivation du toxicomane est un secteur d'activités humaines qui pose des problèmes importants tant sur le plan social et individuel qu'au point de vue de l'intervention thérapeutique. Ces derniers se manifestent à travers des ennuis sociaux comme celui de la conduite automobile avec facultés affaiblies, de l'absentéisme et des accidents au travail et parfois de la consommation et du commerce de drogues illicites. Le problème existe aussi au plan individuel: abandons et échecs scolaires, séparations et divorces, maladies physiques et troubles émotionnels. Au niveau thérapeutique, le taux de succès dépasse rarement les 35%, l'abandon au cours du processus de réadaptation est fréquent et le niveau de récidives ou de rechutes est élevé. À travers les différentes approches utilisées pour mesurer le degré de motivation à changer de comportements de la part du toxicomane (motivation et psychanalyse, motivation et behaviorisme, motivation et cognitivisme), l'auteure de cette recherche suggère que la motivation du toxicomane soit examinée sous une nouvelle perspective. Elle propose de demander individuellement l'opinion de toxicomanes non pas simplement à ne plus consommer mais à tout ce qui touche à l'ensemble de leur vie courante. Cette étude présente ainsi la perception de toxicomanes sur les sources de motivations qui sont sous-jacentes à certaines modifications de comportements. Au terme de la lecture de ce mémoire, le lecteur ou la lectrice connaîtra l'opinion de toxicomanes sur les motifs prioritaires qui génèrent le démarrage, la mise en mouvement, la motivation nécessaire à une modification de comportements. La méthode utilisée dans cette recherche s'inspire des travaux réalisés par Erick Klinger, professeur de psychologie à l'université du Minnesota, aux États-Unis. L'auteure a traduit, adapté et préexpérimenté le questionnaire sur les structures de motivations tiré de l'étude de Klinger et Cox, Motivational Structure Questionnaire. (Klinger, E., & Cox, W.M., 1986). Ce questionnaire présente vingt-sept activités de la vie courante qui peuvent présenter suffisamment d'intérêt pour mettre une personne en mouvement. Une question a été posée à quatre-vingt toxicomanes de la région de Sherbrooke qui ont fait une demande d'aide pour leur réadaptation. La question posée était: "Qu'est qui vous motive à changer de comportements?" Il s'avère que les toxicomanes interrogés accordent une grande importance à plus de douze motifs (motivations) autres que l'alcool, les drogues et les médicaments lorsqu'ils désirent changer. Pour l'auteure, ces résultats sont surprenants. L'idée de départ étant qu'il existe possiblement diverses raisons qui conduisent un ou une toxicomane vers une ressource d'aide mais pas autant que ce que l'étude en dénombre […].