558 resultados para Courbe de coûts
Resumo:
Au Canada, les avalanches constituent le géorisque le plus dangereux en période hivernale. On enregistre annuellement d’importants coûts économiques et sociaux associés aux impacts de ce phénomène naturel. Par exemple, la fermeture de routes en cas de risque d’avalanche est estimée à 5 millions de dollars (Jamieson et Stethem, 2002). La prévision des avalanches est, de nos jours, la meilleure méthode afin d’éviter ces coûts. Au Canada, cela s’effectue de façon ponctuelle à l’aide de méthodes manuelles tel que le test de compression (CAA, 2014). Les modèles de simulation du couvert neigeux permettent d’étendre les prévisions à l’ensemble d’une région et ainsi, atteindre certains lieux difficilement accessibles pour l’homme. On tente actuellement d’adapter le modèle SNOWPACK aux conditions canadiennes et plusieurs études ont eu pour but d’améliorer les simulations produites par celui-ci. Cette étude vise donc également l’amélioration des simulations par l’intégration des paramètres de végétation. L’objectif de l’étude est de paramétrer, pour la première fois, le module de végétation de SNOWPACK avec les données récoltées dans la réserve faunique des Chic-Chocs. Nous pourrons ainsi évaluer l’impact de la végétation sur la modélisation du couvert nival. Nous avons donc, lors de sorties de terrain, recueillis les données de neige et de végétation au niveau de quatre sites d’étude. Nous avons par la suite réalisé les simulations avec SNOWPACK et comparer les résultats des simulations avec et sans végétation aux données de terrain. L’étude nous révèle que le modèle diminue la quantité de neige au sol ainsi que la densité du manteau neigeux en présence de végétation. De plus nous avons pu constater que l’inclusion du module de végétation permet d’obtenir des données qui se rapprochent davantage de ce qui a été observé sur le terrain.
Resumo:
L’objectif de cet essai est de démystifier la tarification incitative et de présenter un outil pratique pour l’implantation réussie d’un système de tarification incitative de la collecte municipale des matières résiduelles au Québec. Cinq sous-objectifs mènent à cette réponse : les raisons du non-emploi de la tarification incitative au Québec, l’analyse des cas à succès en Amérique du Nord et en Europe, l’identification des préalables nécessaires à l’implantation, les étapes opérationnelles de la mise en œuvre et la communication adéquate du processus. L’importance du sujet de cet essai découle des coûts de la gestion des matières résiduelles. Ils voient une augmentation constante due aux redevances à l’élimination et aux nouvelles méthodes de valorisation pour les matières organiques. Une mise à jour de la tarification municipale est donc indispensable. La tarification incitative est un outil efficace pour la réduction des matières résiduelles produites et enfouies ainsi que pour améliorer le taux de récupération résidentiel. De nombreux cas réussis existent en Amérique du Nord. Néanmoins, seulement deux municipalités québécoises utilisent ce système à présent. Des résultats trouvés indiquent qu’une tarification incitative fonctionnelle dépend de l’adaptation du système aux particularités de chaque municipalité. Ceci s’applique au choix du contenant de collecte, des modalités de la facturation et à l’élaboration de la grille tarifaire. En préparation du projet, il est important d’offrir le plus de services complémentaires que possibles afin d’inciter un taux de récupération maximal. Ces services comportent des outils pour le compostage maison, un écocentre pour apport de matières additionnelles ainsi que des collectes spéciales pour les matières organiques, les encombrants et les résidus de construction. Neuf étapes d’une implantation réussie ont été identifiées. La base de chaque projet de tarification incitative est une étude économique et logistique préalable qui permet l’élaboration du scénario choisi. Un projet pilote lancé dans un échantillon de la population aide ensuite à peaufiner la méthode. La préparation de l’appel d’offres et le vote du projet s'en suivent. La mise en œuvre présente un contact avec les citoyens lors de la distribution et mise à jour des contenants de collecte. Par la suite, la municipalité à l’option de commencer par un test à blanc avant d’introduire la tarification complète lors du lancement. Enfin, un suivi par bilans annuels publiés s’impose. Une communication adéquate avant, pendant et après l’implantation est indispensable. La réussite du projet est fortement améliorée par l’allocation d’un chargé de projet responsable dès le début et la portée du projet par les élus.
Resumo:
De nombreuses populations migratrices sont actuellement en déclin. Les changements climatiques entrainent des modifications dans les habitats des espèces migratrices et la phénologie des processus naturels, lesquels se répercutent sur la migration, une période critique pour ces espèces. Comprendre comment les variables environnementales et climatiques affectent la phénologie et les patrons de migration est donc crucial. Ma thèse s’intéresse à l’impact du climat, des ressources alimentaires et de la compétition sur les migrations printanières et automnales des caribous migrateurs, Rangifer tarandus, des troupeaux Rivière-George (TRG) et Rivière-aux-Feuilles (TRF) du Nord-du-Québec et du Labrador. Le premier volet de ma thèse propose une approche objective, basée sur la détection des changements dans la structure des déplacements saisonniers, pour identifier les dates de départ et arrivée en migration. Validée à l’aide de trajets simulés, elle a été appliquée aux migrations printanières et automnales de femelles caribous. Le second volet porte sur l’impact des conditions environnementales sur la phénologie des migrations de printemps et d’automne. Il montre que la phénologie de la migration est principalement affectée par les conditions climatiques rencontrées lors de la migration, les conditions d’enneigement affectant notamment les coûts des déplacements. Au printemps, les caribous subissent des conditions défavorables lorsque la fonte des neiges est précoce. À l’automne, ils semblent ajuster leurs déplacements et migrent plus vite quand la neige débute tôt pour limiter les coûts de déplacement dans une neige profonde. Le troisième volet porte sur les patrons de migration à l’automne et montre que ceux-ci sont affectés essentiellement par une compétition intra- et inter-troupeaux pour les aires d’hivernages. Les caribous du TRG répondent à une augmentation de la compétition sur les aires les plus proches de l’aire de mise bas, liée à une taille de population élevée, en migrant préférentiellement vers les aires les plus éloignées. L’utilisation des aires hivernales par les caribous du TRF est, quant à elle, contrainte par la présence et l’abondance du TRG, cette contrainte diminuant à mesure que le TRG décline et abandonne les migrations vers les aires d’hivernages communes aux deux troupeaux. Cette thèse améliore notre compréhension de l’influence des facteurs environnementaux sur la phénologie et les patrons de migration du caribou migrateur. Ces connaissances sont très utiles pour comprendre l’impact des changements climatiques et établir les plans de conservation pour les espèces migratrices.
Resumo:
Dans le contexte de la production d’éthanol cellulosique, la cellulose doit être hydrolysée par voie chimique ou enzymatique. Dans ce procédé d’hydrolyse, la partie cristalline de la cellulose est plus difficilement fragmentable, ce qui entraîne des coûts supplémentaires dues au temps de traitement plus élevé ou à la quantité supplémentaire de produits chimiques nécessaires. Dans l’optique de réduire les coûts de l’hydrolyse tout en recherchant une voie pour valoriser la cellulose cristalline, l’idée de fabriquer des composites polymères/cellulose est attrayante. L’objectif du présent travail a donc été de valider si la cellulose microcristalline tirée d’un processus d’hydrolyse acide pourrait mener à de nouveaux matériaux composites à valeur ajoutée. Un obstacle anticipé dans le projet a été la faible adhésion de la cellulose, hydrophile et polaire, aux polymères généralement beaucoup moins polaires. Le développement de composites performants et l’atteinte de teneurs élevés en cellulose microcristalline a donc inclus, sur le plan chimique, l’objectif de comparer divers traitements de surface de la cellulose qui permettrait de pallier aux défis anticipés. La méthodologie utilisée dans ce projet a consisté à développer et optimiser un protocole de modification chimique sur de la cellulose microcristalline commerciale à l’échelle laboratoire. Les celluloses modifiées ont été soumises à une caractérisation par analyse de l’angle de contact pour caractériser l’hydrophobicité des fibres, par spectrométrie photoélectronique X pour l’analyse de la composition chimique des fibres, par granulométrie laser pour mesurer la longueur des différentes fibres et microscopie optique pour l’observation de la longueur des fibres. Toutes les techniques ont été utilisées afin de comparer les propriétés des celluloses modifiées à celles de la cellulose de référence. La cellulose de référence et les celluloses modifiées chimiquement ont ensuite été mélangées à des concentrations de 0 à 50% avec du polyéthylène de basse densité à l’état fondu en utilisant un mélangeur interne de type Brabender®. Les composites ont été caractérisés par microscopie électronique à balayage pour analyser la morphologie de mélange sur les surfaces de rupture et l’homogénéité du mélange, par des analyses rhéologiques afin d’obtenir la viscosité en fonction du cisaillement et par des essais de traction afin de déterminer leur Module de Young, leur résistance à la traction et leur élongation à la rupture. Ces caractéristiques permettent de prévoir la performance des composites dans des applications structurales.
Resumo:
Les courriels Spams (courriels indésirables ou pourriels) imposent des coûts annuels extrêmement lourds en termes de temps, d’espace de stockage et d’argent aux utilisateurs privés et aux entreprises. Afin de lutter efficacement contre le problème des spams, il ne suffit pas d’arrêter les messages de spam qui sont livrés à la boîte de réception de l’utilisateur. Il est obligatoire, soit d’essayer de trouver et de persécuter les spammeurs qui, généralement, se cachent derrière des réseaux complexes de dispositifs infectés, ou d’analyser le comportement des spammeurs afin de trouver des stratégies de défense appropriées. Cependant, une telle tâche est difficile en raison des techniques de camouflage, ce qui nécessite une analyse manuelle des spams corrélés pour trouver les spammeurs. Pour faciliter une telle analyse, qui doit être effectuée sur de grandes quantités des courriels non classés, nous proposons une méthodologie de regroupement catégorique, nommé CCTree, permettant de diviser un grand volume de spams en des campagnes, et ce, en se basant sur leur similarité structurale. Nous montrons l’efficacité et l’efficience de notre algorithme de clustering proposé par plusieurs expériences. Ensuite, une approche d’auto-apprentissage est proposée pour étiqueter les campagnes de spam en se basant sur le but des spammeur, par exemple, phishing. Les campagnes de spam marquées sont utilisées afin de former un classificateur, qui peut être appliqué dans la classification des nouveaux courriels de spam. En outre, les campagnes marquées, avec un ensemble de quatre autres critères de classement, sont ordonnées selon les priorités des enquêteurs. Finalement, une structure basée sur le semiring est proposée pour la représentation abstraite de CCTree. Le schéma abstrait de CCTree, nommé CCTree terme, est appliqué pour formaliser la parallélisation du CCTree. Grâce à un certain nombre d’analyses mathématiques et de résultats expérimentaux, nous montrons l’efficience et l’efficacité du cadre proposé.
Resumo:
Résumé: Problématique : En réponse à la prévalence accrue de la maladie du diabète et au fardeau économique important que représente cette maladie sur le système de santé international, des programmes incitatifs pour les maladies chroniques furent instaurés à travers le monde. Ces programmes visent à inciter les médecins à appliquer les lignes directrices chez leurs patients avec besoin complexe en vue d’améliorer la santé des patients et par la suite de réduire les coûts incombés par le système de santé. Les programmes incitatifs étant nombreux et différents d’un pays à l’autre, les études actuelles ne semblent pas s’entendre sur les répercussions de tels programmes sur la santé des patients atteints de diabète. L’objectif de cette étude est d’évaluer les retombées d’un incitatif financier sur le contrôle glycémique de la population atteinte de diabète du Nouveau-Brunswick, au Canada. Méthodes : Cette étude transversale répétée et de cohorte a été menée grâce à des bases de données administratives du Nouveau-Brunswick contenant des données sur dix ans pour 83 580 patients adultes atteints de diabète et 583 médecins de famille éligibles. La santé des patients a été évaluée au niveau du contrôle glycémique, en mesurant les valeurs moyennes d’A1C annuelles à l’aide de régressions linéaires multivariées. Afin d’évaluer si les médecins changeaient leur pratique avec l’implantation du programme incitatif, nous regardions au niveau de la probabilité de recours annuel à au moins deux tests d’A1C en utilisant des régressions logistiques multivariées. Résultats : La probabilité de recours annuel à au moins deux tests d’A1C était plus élevée dans quatre sous-groupes étudiés : les patients nouvellement diagnostiqués après l’implantation du programme avaient des cotes plus élevées comparées aux nouveaux patients avant l’implantation du programme (OR=1.23 [1.18-1.28]); les patients pour lesquels un médecin avait réclamé l’incitatif comparés aux patients pour lesquels aucun médecin n’avait réclamé l’incitatif (OR=2.73 [2.64-2.81]); les patients pour lesquels un médecin avait réclamé l’incitatif avaient des cotes plus élevées après l’implantation du programme comparé à avant (OR=1.89 [1.80-1.98]); et finalement, les patients suivis par un médecin de famille qui a déjà réclamé l’incitatif avaient des cotes 24% plus élevées (OR=1.24 [1.15-1.34]). Il n’y avait pas de différence dans les valeurs d’A1C annuelles entre les 4 sous-groupes étudiés. Conclusion : L’implantation du programme incitatif a démontré que les médecins ont une meilleure probabilité de prescrire au moins deux tests d’A1C, ce qui suggère une meilleure prise en charge des patients. Cependant, le manque de changement au niveau du contrôle glycémique du patient suggère que l’étude des répercussions de l’incitatif devra être poursuivie afin de voir si elle mène à une amélioration d’issues cliniques chez les patients.
Resumo:
L'extension de marque est une stratégie de plus en plus utilisée par les compagnies. Plus de 40% des nouveaux produits lancés sur le marché nord-américain sont issus d'une stratégie d'extension de marque. Un exemple, Pepsi (appelée marque-mère) qui met sur le marché Pepsi Cristal (appelée extension). Notoriété immédiate du nouveau produit, coûts de publicité réduits et facilité d'accès aux canaux de distribution sont autant de raisons expliquant l'intérêt des firmes envers cette stratégie. L'extension de marque peut cependant avoir l'effet négatif d'atténuer les perceptions et l'évaluation de la marque-mère dans l'esprit des consommateurs. Plusieurs raisons laissent croire que cet effet négatif serait plus important chez les consommateurs fidèles à une marque que chez les consommateurs infidèles et les non-consommateurs. Une simulation de lancement du produit Coke Cristal a été réalisée dans le cadre d'un plan expérimental de type "avant-après" auprès de 189 étudiants afin d'examiner si l'effet négatif de cette extension de marque est effectivement plus important chez les consommateurs fidèles à une marque de boissons gazeuses que chez les consommateurs infidèles et les non-consommateurs. Les résultats démontrent l'impact du niveau de fidélité sur le changement des perceptions envers la marque-mère, mais ne démontrent pas son impact sur le changement d'évaluation de la marque-mère après extension. Les implications managériales de ces résultats sont discutées.
Resumo:
Les logiciels actuels sont de grandes tailles, complexes et critiques. Le besoin de qualité exige beaucoup de tests, ce qui consomme de grandes quantités de ressources durant le développement et la maintenance de ces systèmes. Différentes techniques permettent de réduire les coûts liés aux activités de test. Notre travail s’inscrit dans ce cadre, est a pour objectif d’orienter l’effort de test vers les composants logiciels les plus à risque à l’aide de certains attributs du code source. À travers plusieurs démarches empiriques menées sur de grands logiciels open source, développés avec la technologie orientée objet, nous avons identifié et étudié les métriques qui caractérisent l’effort de test unitaire sous certains angles. Nous avons aussi étudié les liens entre cet effort de test et les métriques des classes logicielles en incluant les indicateurs de qualité. Les indicateurs de qualité sont une métrique synthétique, que nous avons introduite dans nos travaux antérieurs, qui capture le flux de contrôle ainsi que différentes caractéristiques du logiciel. Nous avons exploré plusieurs techniques permettant d’orienter l’effort de test vers des composants à risque à partir de ces attributs de code source, en utilisant des algorithmes d’apprentissage automatique. En regroupant les métriques logicielles en familles, nous avons proposé une approche basée sur l’analyse du risque des classes logicielles. Les résultats que nous avons obtenus montrent les liens entre l’effort de test unitaire et les attributs de code source incluant les indicateurs de qualité, et suggèrent la possibilité d’orienter l’effort de test à l’aide des métriques.
Resumo:
Les propriétés hydrauliques d’un till du Nord du Québec en condition saturée et non saturée ont été étudiées en laboratoire à l’aide de l’essai de conductivité hydraulique et l’essai de succion qui permet d’obtenir la courbe de rétention d’eau. Les essais ont été réalisés avec des échantillons compactés sous différentes conditions de teneur en eau et de masse volumique sèche, de manière à évaluer l’influence de ces conditions sur les propriétés hydrauliques. Les études précédentes ont montré qu’une structure agrégée se développe dans le till lorsqu’il est compacté de côté sec de l’optimum Proctor, c’est-à-dire à un degré de saturation de compactage inférieur au degré de saturation optimum (Sr0 < Sr-opt). Le till étudié dans le cadre de cette étude diffère de ceux utilisés dans les études précédentes par son très faible pourcentage de particules argileuses (< 2 μm) de 0,7%. L’objectif principal de cette étude est d’évaluer l’influence des conditions de compactage sur la conductivité hydraulique et la courbe de rétention d’eau et de déterminer si une structure agrégée se développe lorsque le till est compacté du côté sec de l’optimum. Les résultats expérimentaux typiques de la conductivité hydraulique saturée obtenus pour les échantillons compactés du côté humide de l’optimum (Sr0 > Sr-opt) avec un indice des vides de 0,328 varient de 2,6 x 10-7 à 8,6 x 10-7 m/s. Les conductivités hydrauliques typiques obtenues pour les échantillons compactés du côté sec de l’optimum (Sr0 < Sr-opt) avec le même indice des vides étaient très similaires, variant entre 2,4 x 10-7 et 9,1 x 10-7 m/s. Les courbes de rétention d’eau mesurées en laboratoire sont très semblables entre elles, présentant toutes une structure de sol homogène, peu importe si l’échantillon a été compacté du côté sec ou du côté humide. Il apparait que la conductivité hydraulique et la courbe de rétention d’eau de ce till sont très peu influencées par le degré de saturation de compactage. Ceci peut être expliqué par le très faible pourcentage de particules argileuses, qui prévient la formation d’agrégations de particules dans la structure du till lorsqu’il est compacté du côté sec de l’optimum Proctor. Plusieurs modèles d’estimation de la conductivité hydraulique sont utilisés. Cette étude propose trois nouveaux modèles d’estimation de la conductivité hydraulique saturée pour les tills du Nord du Québec. Le premier modèle met en relation la conductivité hydraulique saturée avec le diamètre des grains de la fraction fine (d50 FF) et le deuxième modèle est une équation modifiée de Kozeny-Carman et Hazen basée sur la porosité et une taille de particule effective (d10). Finalement, un modèle permettant d’évaluer l’effet de l’agrégation avec l’équation de Kozeny-Carman modifiée dans les tills compactés est proposé.
Resumo:
La recherche qui a été effectuée dans le présent document, porte sur l'écart appliqué par les banques aux swaps de taux d'intérêt. Les éléments hors-bilan des banques dont fait partie les swaps de taux d'intérêt ont connu ces dernières années une croissance très importante, à cause principalement d'une volatilité des taux d'intérêt élevée. Nous avons choisi d'analyser l'écart bancaire sur les swaps de taux d'intérêt dans le but d'identifier la nature des relations qui existent entre lui et certains facteurs pertinents. Étant donné que dans la littérature financière il n'y a aucune étude empirique relative à ce sujet, et qu'il y a un manque d'informations théoriques adéquates en ce qui concerne la forme des relations analysées, nous avons effectué ce travail dans une perspective exploratoire. Les facteurs pertinents retenus sont le taux des acceptations bancaires, la volatilité de ce taux, mesurée par l'écart-type des observations des trente derniers jours, la pente de la courbe de rendement, et l'échéance du swap. La période d'étude va du 17/02/89 au 11/02/91 et compte 493 observations; elle a été subdivisée en quatre sous-périodes chronologiques égales. Ainsi chacune des analyses a-t-elle été effectuée de deux façons ; d'abord sur l'ensemble de l'échantillon et ensuite dans les sous-périodes. Deux types de swaps ont été considérés : les swaps de trois ans d'échéance et les swaps de cinq ans d'échéance. Les résultats de l'analyse des données sont les suivants : Dans une large mesure, il est plausible d'affirmer que l'écart bancaire sur les swaps de taux d'intérêt est une fonction négative du taux des acceptations bancaires. Mais cette relation est plus évidente lorsque le taux des acceptations bancaires est élevé que lorsqu'il est plus faible. Il est également soutenable d'affirmer que l'écart bancaire est une fonction positive de la volatilité des taux d'intérêt ainsi que de la pente de la courbe de rendement. L'écart bancaire augmente avec une augmentation de l'échéance du swap; néanmoins la relation entre les deux n'est pas une relation linéaire, c'est-à-dire de proportionnalité. Les résultats obtenus sont en général concordants avec la théorie économique et financière et leurs implications pratiques peuvent être utiles aussi bien pour la banque que pour les entreprises clientes.
Resumo:
Nous voilà rendus à l'aube du troisième millénaire. Que de changements se sont produits depuis la révolution industrielle. Selon plusieurs auteurs cités par Defrenne et Delvaux (1990), nous sommes maintenant arrivés à la société postindustrielle que certains appellent la société super-industrielle, la post-civilisation, la société technétronique, la société technicisée et, pour Defrenne et Delvaux (1990), il s'agit de la société de l'incertitude. Pour eux, elle est une réplique du chaos planétaire où l'organisation se fait, se défait et se refait, jamais tout à fait semblable. Il nous apparaît important de définir ce que nous entendons par "organisation". Il s'agit d'un «groupement, association en général d'une certaine ampleur, qui se propose des buts déterminés» (Dictionnaire Petit Larousse, 1993) comme les organisations privées, publiques et para-publiques. Dans les organisations, ce véritable chaos se traduit par des processus de restructuration où l'on accorde souvent davantage d'importance à l'organisation et ses structures, et ce au détriment des individus qui y travaillent. Il en résulte une perte du potentiel des travailleurs, ce qui occasionne un déficit au plan des ressources humaines dont on ne soupçonne pas les conséquences pour l'organisation et les individus. Les propos qu'entretiennent les deux auteurs sont assez éloquents à ce sujet: «Les points de repères disparaissent sans être remplacés par d'autres, imprévus et imprévisibles, ils s'avèrent impuissants à faire face au changement, dont les composantes non gérées deviennent synonymes de facteurs de désordre. C'est pourquoi l'univers professionnel et la vulnérabilité des travailleurs reproduisent la fragilité de l'organisation. Ce désordre se traduit à l'intérieur des entreprises par des vécus désadaptatifs et des conduites dysfonctionnelles, de tous genres au travail. Ils entraînent des coûts psychologiques, sociaux, financiers et économiques importants. Ils peuvent aller jusqu'à ruiner les politiques, les stratégies et détruire l'image de l'organisation. À l'extérieur, les faits divers rapportent des incidents qui témoignent de fautes de gestion ou de spéculations douteuses, dévoilent les carences en matière d'intervention efficace, placent l'ensemble des entreprises dans un environnement mouvant et mutant par rapport auquel elles sont sommées de se réajuster perpétuellement.» (Defrenne et Delvaux 1990, p. 23) Cette société de l'incertitude, que nous décrivent ces deux auteurs, n'est pas sans conséquences pour les différents acteurs des organisations face à de futurs scénarios multiples, irréversibles et imprévisibles, engendrant des coûts dont on ne peut soupçonner l'ampleur. Devant de tels changements, la plupart des travailleurs vivront des transitions au cours de leur vie personnelle et professionnelle. Le conseiller d'orientation, un travailleur faisant partie de ce monde en mutation, est lui aussi touché. Il voit sa pratique se modifier, ses champs d'intervention traditionnelle se transforment peu à peu et d'autres commencent à s'ouvrir. À la différence de bien des travailleurs, le conseiller d'orientation possède des compétences et des connaissances qui lui seront très utiles dans un tel contexte de changement. En outre, il pourra les mettre au service des organisations aux prises avec de nouveaux besoins organisationnels engendrés par la société postindustrielle. Comme il devient impératif de tenir compte de plus en plus des besoins de l'individu dans une nouvelle gestion des ressources humaines, on ne doit pas seulement gérer les effectifs mais l'on doit également les développer et les mobiliser autour d'objectifs communs que sont ceux de l'organisation et des individus. Pour en arriver à mobiliser les travailleurs et les gestionnaires autour d'une même vision de l'organisation, certaines pratiques dans la gestion des ressources humaines doivent être renouvelées et appuyées par des programmes de développement de carrière, de formation de la main-d'oeuvre, d'aide aux transitions personnelles et professionnelles et par le développement des politiques de gestion des ressources humaines. Un grand défi demeure pour les organisations: comment faire face à de tels changements qui affectent à la fois la culture de l'organisation, les politiques, les méthodes de travail, les relations entre les travailleurs et le personnel cadre. Tout se bouscule pour eux à une vitesse qui est hors de contrôle, d'où l'importance pour les dirigeants de s'ouvrir à de nouvelles formes de gestion et de s'entourer de professionnels spécialisés dans les problématiques de l'individu au travail. La présente étude vise à tracer le portrait de la situation actuelle au Québec concernant la pratique des conseillers d'orientation dans les organisations. Ce document se divise en trois parties. Dans un premier temps, vous prendrez connaissance au chapitre 1 de la problématique dans laquelle vous retrouverez des informations concernant l'historique et l'évolution de la profession de conseiller d'orientation au coeur des transformations du marché du travail. Au chapitre 2, nous abordons la méthodologie utilisée pour la réalisation de cette enquête. Au chapitre 3, nous terminons enfin par l'analyse des résultats et l'interprétation. Cette consultation menée auprès des conseillers pratiquant dans les organisations, à titre soit d'employé, soit de consultant, nous a permis de recueillir plusieurs données concernant leurs caractéristiques, leurs pratiques et leurs besoins. Pour terminer, nous vous faisons part de nos conclusions.
Resumo:
Le contenu de ce mémoire traite du problème de gestion des stocks dans un réseau constitué de plusieurs sites de stockage de produits. Chaque site i gère son stock de manière autonome pour satisfaire une demande déterministe sur un horizon donné. Un stock maximum Si est tenu à chaque site i. Lorsque le point de commande si est atteint, une commande de taille Qi est placée au centre de distribution qui alimente tous les sites. Qi est telle que Qi = Si - si. La quantité Qi est livrée dans un délai connu Li. Si, à un instant donné, la demande Di au site i excède la quantité en main, le site i fait appel à un ou à plusieurs autres sites du réseau pour le transfert d’une quantité Xji (j = 1, 2, …, n). Ce transfert s’effectue selon un certain nombre de règles de jeu qui tiennent compte des coûts de transfert, de stockage, d’approvisionnement et de pénurie. Ce mémoire examine six principales contributions publiées dans la littérature pour évaluer les contributions d’un modèle collaboratif aux performances, en termes de coûts et de niveau de service, de chaque site du réseau. Cette investigation se limite à une configuration du réseau à deux échelons : un entrepôt central et n (n > 2) sites de stockage. Le cas des pièces de rechange, caractérisé par une demande aléatoire, est examiné dans trois chapitres de ce mémoire. Une autre application de ces stratégies à la collaboration entre n centres hospitaliers (n > 2) est également examinée dans ce travail.
Resumo:
La Formule SAE (Society of Automotive Engineers) est une compétition étudiante consistant en la conception et la fabrication d’une voiture de course monoplace. De nombreux événements sont organisés à chaque année au cours desquels plusieurs universités rivalisent entre elles lors d’épreuves dynamiques et statiques. Celles-ci comprennent l’évaluation de la conception, l’évaluation des coûts de fabrication, l’accélération de la voiture, etc. Avec plus de 500 universités participantes et des événements annuels sur tous les continents, il s’agit de la plus importante compétition d’ingénierie étudiante au monde. L’équipe ULaval Racing a participé pendant plus de 20 ans aux compétitions annuelles réservées aux voitures à combustion. Afin de s’adapter à l’électrification des transports et aux nouvelles compétitions destinées aux voitures électriques, l’équipe a conçu et fabriqué une chaîne de traction électrique haute performance destinée à leur voiture 2015. L’approche traditionnelle employée pour concevoir une motorisation électrique consiste à imposer les performances désirées. Ces critères comprennent l’inclinaison maximale que la voiture doit pouvoir gravir, l’autonomie désirée ainsi qu’un profil de vitesse en fonction du temps, ou tout simplement un cycle routier. Cette approche n’est malheureusement pas appropriée pour la conception d’une traction électrique pour une voiture de type Formule SAE. Ce véhicule n’étant pas destiné à la conduite urbaine ou à la conduite sur autoroute, les cycles routiers existants ne sont pas représentatifs des conditions d’opération du bolide à concevoir. Ainsi, la réalisation de ce projet a nécessité l’identification du cycle d’opération routier sur lequel le véhicule doit opérer. Il sert de point de départ à la conception de la chaîne de traction composée des moteurs, de la batterie ainsi que des onduleurs de tension. L’utilisation d’une méthode de dimensionnement du système basée sur un algorithme d’optimisation génétique, suivie d’une optimisation locale couplée à une analyse par éléments-finis a permis l’obtention d’une solution optimale pour les circuits de type Formule SAE. La chaîne de traction conçue a été fabriquée et intégrée dans un prototype de voiture de l’équipe ULaval Racing lors de la saison 2015 afin de participer à diverses compétitions de voitures électriques.
Resumo:
Dans le contexte où les routes non revêtues sont susceptibles de subir des charges importantes, une méthode rigoureuse pour la conception de ces chaussées basée sur des principes mécanistes-empiriques et sur le comportement mécanique des sols support est souhaitable. La conception mécaniste combinée à des lois d’endommagement permet l’optimisation des structures de chaussées non revêtues ainsi que la réduction des coûts de construction et d’entretien. Le but de ce projet est donc la mise au point d’une méthode de conception mécaniste-empirique adaptée aux chaussées non revêtues. Il a été question tout d’abord de mettre au point un code de calcul pour la détermination des contraintes et des déformations dans la chaussée. Ensuite, des lois d’endommagement empiriques pour les chaussées non revêtues ont été développées. Enfin, les méthodes de calcul ont permis la création d’abaques de conception. Le développement du code de calcul a consisté en une modélisation de la chaussée par un système élastique multi-couches. La modélisation a été faite en utilisant la transformation d’Odemark et les équations de Boussinesq pour le calcul des déformations sous la charge. L’élaboration des fonctions de transfert empiriques adaptées aux chaussées non revêtues a également été effectuée. Le développement des fonctions de transfert s’est fait en deux étapes. Tout d’abord, l’établissement de valeurs seuil d’orniérage considérant des niveaux jugés raisonnables de conditions fonctionnelle et structurale de la chaussée. Ensuite, le développement de critères de déformation admissible en associant les déformations théoriques calculées à l’aide du code de calcul à l’endommagement observé sur plusieurs routes en service. Les essais ont eu lieu sur des chaussées typiques reconstituées en laboratoire et soumises à un chargement répété par simulateur de charge. Les chaussées ont été instrumentées pour mesurer la déformation au sommet du sol d’infrastructure et les taux d’endommagements ont été mesurés au cours des essais.
Resumo:
De plus en plus de partenaires socio-économiques de l'éducation reconnaissent que les besoins d'orientation sont flagrants, en particulier au niveau secondaire, et que les problèmes conséquents d'une orientation inadéquate engendrent des coûts sociaux aussi élevés que déplorables. Face au décrochage scolaire par exemple, Emploi et Immigration Canada (1990) dans son Projet national d'Incitation à la poursuite des études résume assez bien cette pensée générale en affirmant que: "Le taux actuel d'abandon scolaire entraîne une perte inacceptable de potentiel humain, un coût social élevé et une pénurie importante de travailleurs possédant les compétences nécessaires pour qu'augmentent les revenus de tous les Canadiens" ( E.I.C., 1990, p.7). […]Enfin, c'est la pertinence même de la formation prodiguée au secondaire en regard du projet d'avenir des jeunes qui serait remise en question par quelques-uns et quelques-unes, tel qu'en rend compte l'étude Quand les choix débutent menée par le Ministère de l'Éducation du Québec en 1992 auprès d'élèves de cinquième secondaire: "Un ou une élève sur cinq ne voit pas en quoi lui servira la formation reçue par rapport à ce qu'il veut faire plus tard" (M.E.Q, 1992a, p. 57). Cet état de fait témoigne d'une lacune certaine dans la cohérence du système éducatif dont les objectifs terminaux ne semblent pas se traduire dans le cheminement vocationnel des élèves. On reconnaît donc d'emblée le caractère alarmant des problèmes qui découlent de la crise en orientation. Mais qu'en est-il exactement de la situation actuelle de l'orientation dans les écoles secondaires du Québec?