426 resultados para Amélioration
Resumo:
Includes bibliographical references (p. 5).
Resumo:
If the need for change and improvement in the Commission’s ways of working became evident as of 1979, the reform process began with the Santer Commission. Although the public management reform seems to focus on reducing personnel and expenses, it goes further in the sense of modernization: budgetary reforms aim at budgeting results and performance; emphasis is put on individual responsibility and evaluation and on a more flexible approach to personnel management, strategic planning, and transfer of authority.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Modélisations moléculaires réalisés avec le logiciel HyperChem 8.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Le bois subit une demande croissante comme matériau de construction dans les bâtiments de grandes dimensions. Ses qualités de matériau renouvelable et esthétique le rendent attrayant pour les architectes. Lorsque comparé à des produits fonctionnellement équivalents, il apparait que le bois permet de réduire la consommation d’énergie non-renouvelable. Sa transformation nécessite une quantité d’énergie inférieure que l’acier et le béton. Par ailleurs, par son origine biologique, une structure en bois permet de stocker du carbone biogénique pour la durée de vie du bâtiment. Maintenant permis jusqu’à six étages de hauteur au Canada, les bâtiments de grande taille en bois relèvent des défis de conception. Lors du dimensionnement des structures, les zones des connecteurs sont souvent les points critiques. Effectivement, les contraintes y sont maximales. Les structures peuvent alors apparaitre massives et diminuer l’innovation architecturale. De nouvelles stratégies doivent donc être développées afin d’améliorer la résistance mécanique dans les zones de connecteurs. Différents travaux ont récemment porté sur la création ou l’amélioration de types d’assemblage. Dans cette étude, l’accent est mis sur le renforcement du bois utilisé dans la région de connexion. L’imprégnation a été choisie comme solution de renfort puisque la littérature démontre qu’il est possible d’augmenter la dureté du bois avec cette technique. L’utilisation de cette stratégie de renfort sur l’épinette noire (Picea Mariana (Mill.) BSP) pour une application structurale est l’élément de nouveauté dans cette recherche. À défaut d’effectuer une imprégnation jusqu’au coeur des pièces, l’essence peu perméable de bois employée favorise la création d’une mince couche en surface traitée sans avoir à utiliser une quantité importante de produits chimiques. L’agent d’imprégnation est composé de 1,6 hexanediol diacrylate, de triméthylopropane tricacrylate et d’un oligomère de polyester acrylate. Une deuxième formulation contenant des nanoparticules de SiO2 a permis de vérifier l’effet des nanoparticules sur l’augmentation de la résistance mécanique du bois. Ainsi, dans ce projet, un procédé d’imprégnation vide-pression a servi à modifier un nouveau matériau à base de bois permettant des assemblages plus résistants mécaniquement. Le test de portance locale à l’enfoncement parallèle au fil d’un connecteur de type tige a été réalisé afin de déterminer l’apport du traitement sur le bois utilisé comme élément de connexion. L’effet d’échelle a été observé par la réalisation du test avec trois diamètres de boulons différents (9,525 mm, 12,700 mm et 15,875 mm). En outre, le test a été effectué selon un chargement perpendiculaire au fil pour le boulon de moyen diamètre (12,700 mm). La corrélation d’images numériques a été utilisée comme outil d’analyse de la répartition des contraintes dans le bois. Les résultats ont démontré une portance du bois plus élevée suite au traitement. Par ailleurs, l’efficacité est croissante lorsque le diamètre du boulon diminue. C’est un produit avec une valeur caractéristique de la portance locale parallèle au fil de 79% supérieure qui a été créé dans le cas du test avec le boulon de 9,525 mm. La raideur du bois a subi une augmentation avoisinant les 30%. Suite au traitement, la présence d’une rupture par fissuration est moins fréquente. Les contraintes se distribuent plus largement autour de la région de connexion. Le traitement n’a pas produit d’effet significatif sur la résistance mécanique de l’assemblage dans le cas d’un enfoncement du boulon perpendiculairement au fil du bois. De même, l’effet des nanoparticules en solution n’est pas ressorti significatif. Malgré une pénétration très faible du liquide à l’intérieur du bois, la couche densifiée en surface créée suite au traitement est suffisante pour produire un nouveau matériau plus résistant dans les zones de connexion. Le renfort du bois dans la région des connecteurs doit influencer le dimensionnement des structures de grande taille. Avec des éléments de connexion renforcés, il sera possible d’allonger les portées des poutres, multipliant ainsi les possibilités architecturales. Le renfort pourra aussi permettre de réduire les sections des poutres et d’utiliser une quantité moindre de bois dans un bâtiment. Cela engendrera des coûts de transport et des coûts reliés au temps d’assemblage réduits. De plus, un connecteur plus résistant permettra d’être utilisé en moins grande quantité dans un assemblage. Les coûts d’approvisionnement en éléments métalliques et le temps de pose sur le site pourront être revus à la baisse. Les avantages d’un nouveau matériau à base de bois plus performant utilisé dans les connexions permettront de promouvoir le bois dans les constructions de grande taille et de réduire l’impact environnemental des bâtiments.
Resumo:
L’augmentation des chaleurs estivales jumelée à l’augmentation des fréquences de smog affectera la santé publique. Le phénomène des îlots de chaleur urbain apporte son lot d’impacts environnementaux, sociaux et économiques partout à travers le monde. La perte de biodiversité, les maladies pulmonaires, la pauvreté et contamination des sols, les dépenses astronomiques liées aux traitements des eaux pluviales obligent les acteurs du territoire à trouver des mesures d’atténuation plus durable et impactant. Dans la foulée, le verdissement sous l’approche de l’arbre apparait comme une des stratégies les plus douces et simples à mettre en œuvre. Les bénéfices encourus par ces grands êtres vivants que sont les arbres peuvent aussi jouer à la fois sur l’économie, l’environnement et la santé. D’où l’engouement des métropoles à verdir leur espace urbain : parc, corridor forestier, îlot de verdure, etc. Alors que certaines villes visent à augmenter leur indice de canopée, d’autres espèrent seulement procurer de meilleures conditions de vie à leur masse citoyenne. Dans les grandes villes et les régions occidentales, dont au Québec et à Montréal, le verdissement demeure un terme récent et méconnu. L’objectif du document est de recommander des méthodes d’actions de verdissement à l’échelle des parcs industriels montréalais. Celui de l’arrondissement d’Anjou a été choisi comme étude de cas. Les conclusions de l’analyse permettent de réaliser qu’un projet de plantation d’arbres en milieu industriel se déroule en 2 phases et 10 étapes. En tenant compte du diagnostic territorial réalisé en amont, les acteurs du territoire ciblent des enjeux afin d’établir des situations gagnantes aux projets de verdissement. Cette démarche vise à insuffler un nouveau visage aux parcs industriels montréalais. Les territoires industriels ont trop longtemps été des lieux ingrats, sous-utilisés et dépourvus d’arbres, toutefois ils témoignent d’un immense potentiel de verdissement. D’où la raison d’y accorder une importance. Pour faire face à ce changement de vision, les élus, les énarques et les acteurs du territoire montréalais doivent miser : sur le développement d’une cohérence des politiques sectorielles, sur le renforcement des règlements d’urbanismes, sur une réelle lutte aux ICU et à l’atteinte des objectifs du Plan d’action canopée, sur la création d’incitatifs économiques favorables, sur le développement des capacités et enfin sur le réseautage des citoyens ainsi que sur le réseautage des adeptes de l’aménagement durable.
Resumo:
Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.
Resumo:
Les autorités gouvernementales canadiennes se sont données, depuis plus de 30 ans, une procédure pour évaluer les conséquences que les politiques, les plans ou les programmes fédéraux et provinciaux peuvent engendrer sur l’environnement. Si, avec le temps, l’évaluation a couvert une plus large définition de l’environnement pour intégrer les dimensions sociale et économique, la procédure d’évaluation environnementale stratégique est-elle pour autant adéquate? Y a-t-il un outil ou une méthode efficace qui pourrait améliorer son rendement? S’il est aujourd’hui accepté qu’un promoteur gouvernemental recherche l’acceptabilité sociale tout en mesurant les effets positifs et négatifs de son projet, ne pourrait-il pas adopter une méthodologie plus holistique et plus simple que la démarche d’identification et d’évaluation des impacts? C’est l’hypothèse qui sous-tend cet essai. L’objectif général de cet essai est de mener une réflexion sur l’utilisation de l’approche systémique dans l’élaboration de l’évaluation environnementale stratégique. En premier lieu, l’approche systémique sera étudiée de manière approfondie afin d’en faire ressortir ses bienfaits en matière de gestion de l’environnement. En second lieu, l’analyse de l’évaluation environnementale canadienne, américaine et européenne permettra de déceler les failles et les réussites dans la mise en place des plans, politiques et programmes. Finalement, une étude de cas sera utilisée pour valider l’hypothèse de travail. L’analyse révèle que l’utilisation de l’approche systémique dans le processus d’évaluation environnementale des plans, des politiques et des programmes est un outil judicieux et holistique hors pair. Non seulement cette méthode permet de tenir compte de toutes les préoccupations des parties prenantes, elle permet aussi de mieux cibler la problématique associée, d’adapter des mesures d’atténuation performantes et de mettre en oeuvre un programme de suivi efficace. Ces résultats démontrent le bénéfice d’utiliser une telle démarche dans ce processus rigoureux qu’est l’évaluation environnementale stratégique. En somme, l’utilisation de l’approche systémique dans l’élaboration de l’évaluation environnementale stratégique permettrait de mieux encadrer toutes les démarches visant à déceler les impacts positifs et négatifs sur l’environnement. Cet outil permettrait de satisfaire la volonté du gouvernement fédéral et des ministres promoteurs de promouvoir le développement de la société dans une perspective de développement durable.
Resumo:
Dans ses champs de recherches ou d'application scientifiques, la géographie se situe au carrefour de nombreuses autres sciences. Tout au cours de son évolution, ce voisinage l'a amené à s'interroger sur le bien-fondé de ses propres assises scientifiques. Bénéficiant, d'une part, de l'apport de d'autres disciplines et donnant naissance, d'autre part, à des sciences autonomes (sociologie, géomorphologie), elle conserve son approche globale et ses applications concrètes. En respectant cette dualité, mon intérêt m'a porté à aborder à la fois la problématique liée aux programmes d'amélioration de quartier et leurs impacts sur les villes moyennes du Québec. Ces petites villes constituent un champ d'investigation encore peu explorée. Cette étude est d'autant plus pertinente que le département de géographie et le centre de recherche en aménagement régional de l'Université de Sherbrooke y ont trouvé leur vocation particulière. Le choix des villes repose sur deux (2) raisons: elles devaient faire l'objet d'un P.A.Q., posséder des caractéristiques particulières dues à son rôle et à sa localisation; six (6) centres urbaines ont été retenus sur cette base : Hull, ville administrative et pôle administratif dans la région de l'Outaouais ; St-Hyacinthe, ville satellite faisant partie des sept (7) villes de la couronne montréalaise ; Longueuil, ville banlieue en expansion accélérée ; Lachine, ville historique située sur l'Île de Montréal ; Sherbrooke, ville à caractère manufacturier et pôle régional dans l’Estrie ; Drummondville, ville à caractère manufacturier et pôle régional dans la région centre du Québec. Notre démarche est relativement simple. Afin de vérifier si les objectifs des P.A.Q. et les solutions véhiculées dans les programmes de même nature correspondent aux situations que nous aurons nous-mêmes observées, il nous faut analyser tout d'abord les caractéristiques physiques et socio-économiques des quartiers centraux, leur structure et leurs relations avec l'ensemble de leur agglomération respective. Cette description fera l'objet des premier et deuxième chapitres. Pour compléter cette analyse, nous croyons qu'il est nécessaire de composer une seule image avec l'ensemble de ces quartiers pour obtenir l'approche globale que nous désirons. Nous utiliserons l'analyse factorielle pour obtenir une définition de ces quartiers. Nous pourrons ainsi vérifier si elle est contenue dans problématique liée aux programmes de rénovation urbaine. Cette redéfinition constitue la démarche principale du troisième chapitre […].
Resumo:
Le caribou de Peary, désigné en voie de disparition, n’est pas épargné par les changements climatiques. Par le passé, des hivers successifs caractérisés par des conditions météorologiques extrêmes ont entrainé des déclins importants de population en quelques années, pouvant aller jusqu’à 98 %. L’augmentation des épisodes de redoux hivernaux et de pluies sur neige réduit les conditions d’accès à la nourriture de cette sous-espèce. Ces conditions ont pour conséquence d’augmenter la densité des couches de neige dans le manteau neigeux, ce qui empêche le caribou d’avoir accès au fourrage couvrant le sol en hiver. Dans cet esprit, l’outil de spatialisation de SNOWPACK dans l’Arctique (OSSA) développé dans Ouellet et al. (2016) permet la spatialisation des conditions d’accès à la nourriture du caribou de Peary en utilisant le modèle de simulation du couvert nival SNOWPACK. Le paramètre du couvert nival utilisé est l’épaisseur cumulée au-delà d’un seuil fixe de densité durant la saison hivernale (ECD). L'OSSA fournit un résultat d’une résolution spatiale de 32 km puisque les données météorologiques utilisées sont les données de réanalyses du North American Regional Reanalysis (NARR) qui possède une résolution de 32 km. Cette résolution grossière ne permet pas de documenter et prédire la migration locale des différentes populations sur les îles de l'archipel arctique canadien. L’objectif principal de ce projet est donc d’évaluer le potentiel d'une approche de raffinement spatial de l'OSSA à une résolution de 1 km. Afin d’affiner la résolution spatiale de la simulation de l’ECD, des données de pente et de l’albédo du sol à une résolution de 1 km ont été utilisées. Avant d’effectuer les simulations à haute résolution, la sensibilité de l’ECD à ces deux paramètres du terrain a été testée. Les simulations préliminaires ont permis de démontrer que plus la pente est élevée, plus l’ECD sera faible. Également, il a été identifié que la pente va affecter l’ECD à partir d’un seuil de 3 degré. L’albédo du sol a aussi un impact significatif sur l’ECD, mais à un niveau moins important que la pente. Finalement, la comparaison des résultats à faible et haute résolution a pu démontrer que l’approche de raffinement spatial appliquée permet d’obtenir une information plus détaillée des conditions d’accès à la nourriture du caribou de Peary. Les résultats d’ECD obtenus à 1 km de résolution montrent des écarts avec l’ECD à 32 km de résolution pouvant dépasser les 2000 cm. Finalement, cette étude montre l’intérêt d’automatiser cette approche afin de pouvoir spatialiser les conditions d’accès à la nourriture à une résolution de 1 km et de prédire certaines micro-variabilités dans les déplacements futurs des caribous de Peary en fonction des changements climatiques.
Resumo:
La vitesse des ondes de cisaillement est généralement mesurée en laboratoire en utilisant des éléments piézoélectriques comme les bender elements (BE). Cependant, ces techniques présentent certains problèmes au niveau de l’émission à la fois des ondes primaires et de cisaillement, les effets de champ proche, les effets de bords, et l’incertitude au niveau de l’interprétation du signal. Une nouvelle technique, baptisée technique des anneaux piézoélectriques (P-RAT) a été développée dans le laboratoire géotechnique de l'Université de Sherbrooke afin de minimiser / éliminer les difficultés associées aux autres techniques, en particulier, la pénétration des échantillons, obligatoire pour la technique BE. Cette étude présente une description de la technique P-RAT ainsi que les résultats des simulations numériques réalisées avec le code informatique COMSOL afin d'étudier l'interaction entre les composantes du P-RAT et l'échantillon testé (sol ou solide). L’étude démontre l’efficacité du concept de la méthode P-RAT et présente des modifications pour améliorer la fiabilité et la performance de la méthode P-RAT afin d’étendre son applicabilité dans le domaine du génie civil. L’implémentation de la dernière génération de P-RAT dans une cellule triaxiale et une autre œdométrique était l’aboutissement de cette étude.
Resumo:
Modélisations moléculaires réalisés avec le logiciel HyperChem 8.