1000 resultados para Routes en gravier--Essais
Resumo:
Dans le contexte où les routes non revêtues sont susceptibles de subir des charges importantes, une méthode rigoureuse pour la conception de ces chaussées basée sur des principes mécanistes-empiriques et sur le comportement mécanique des sols support est souhaitable. La conception mécaniste combinée à des lois d’endommagement permet l’optimisation des structures de chaussées non revêtues ainsi que la réduction des coûts de construction et d’entretien. Le but de ce projet est donc la mise au point d’une méthode de conception mécaniste-empirique adaptée aux chaussées non revêtues. Il a été question tout d’abord de mettre au point un code de calcul pour la détermination des contraintes et des déformations dans la chaussée. Ensuite, des lois d’endommagement empiriques pour les chaussées non revêtues ont été développées. Enfin, les méthodes de calcul ont permis la création d’abaques de conception. Le développement du code de calcul a consisté en une modélisation de la chaussée par un système élastique multi-couches. La modélisation a été faite en utilisant la transformation d’Odemark et les équations de Boussinesq pour le calcul des déformations sous la charge. L’élaboration des fonctions de transfert empiriques adaptées aux chaussées non revêtues a également été effectuée. Le développement des fonctions de transfert s’est fait en deux étapes. Tout d’abord, l’établissement de valeurs seuil d’orniérage considérant des niveaux jugés raisonnables de conditions fonctionnelle et structurale de la chaussée. Ensuite, le développement de critères de déformation admissible en associant les déformations théoriques calculées à l’aide du code de calcul à l’endommagement observé sur plusieurs routes en service. Les essais ont eu lieu sur des chaussées typiques reconstituées en laboratoire et soumises à un chargement répété par simulateur de charge. Les chaussées ont été instrumentées pour mesurer la déformation au sommet du sol d’infrastructure et les taux d’endommagements ont été mesurés au cours des essais.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Rapport de synthèse Cette thèse consiste en trois essais sur les stratégies optimales de dividendes. Chaque essai correspond à un chapitre. Les deux premiers essais ont été écrits en collaboration avec les Professeurs Hans Ulrich Gerber et Elias S. W. Shiu et ils ont été publiés; voir Gerber et al. (2006b) ainsi que Gerber et al. (2008). Le troisième essai a été écrit en collaboration avec le Professeur Hans Ulrich Gerber. Le problème des stratégies optimales de dividendes remonte à de Finetti (1957). Il se pose comme suit: considérant le surplus d'une société, déterminer la stratégie optimale de distribution des dividendes. Le critère utilisé consiste à maximiser la somme des dividendes escomptés versés aux actionnaires jusqu'à la ruine2 de la société. Depuis de Finetti (1957), le problème a pris plusieurs formes et a été résolu pour différents modèles. Dans le modèle classique de théorie de la ruine, le problème a été résolu par Gerber (1969) et plus récemment, en utilisant une autre approche, par Azcue and Muler (2005) ou Schmidli (2008). Dans le modèle classique, il y a un flux continu et constant d'entrées d'argent. Quant aux sorties d'argent, elles sont aléatoires. Elles suivent un processus à sauts, à savoir un processus de Poisson composé. Un exemple qui correspond bien à un tel modèle est la valeur du surplus d'une compagnie d'assurance pour lequel les entrées et les sorties sont respectivement les primes et les sinistres. Le premier graphique de la Figure 1 en illustre un exemple. Dans cette thèse, seules les stratégies de barrière sont considérées, c'est-à-dire quand le surplus dépasse le niveau b de la barrière, l'excédent est distribué aux actionnaires comme dividendes. Le deuxième graphique de la Figure 1 montre le même exemple du surplus quand une barrière de niveau b est introduite, et le troisième graphique de cette figure montre, quand à lui, les dividendes cumulés. Chapitre l: "Maximizing dividends without bankruptcy" Dans ce premier essai, les barrières optimales sont calculées pour différentes distributions du montant des sinistres selon deux critères: I) La barrière optimale est calculée en utilisant le critère usuel qui consiste à maximiser l'espérance des dividendes escomptés jusqu'à la ruine. II) La barrière optimale est calculée en utilisant le second critère qui consiste, quant à lui, à maximiser l'espérance de la différence entre les dividendes escomptés jusqu'à la ruine et le déficit au moment de la ruine. Cet essai est inspiré par Dickson and Waters (2004), dont l'idée est de faire supporter aux actionnaires le déficit au moment de la ruine. Ceci est d'autant plus vrai dans le cas d'une compagnie d'assurance dont la ruine doit être évitée. Dans l'exemple de la Figure 1, le déficit au moment de la ruine est noté R. Des exemples numériques nous permettent de comparer le niveau des barrières optimales dans les situations I et II. Cette idée, d'ajouter une pénalité au moment de la ruine, a été généralisée dans Gerber et al. (2006a). Chapitre 2: "Methods for estimating the optimal dividend barrier and the probability of ruin" Dans ce second essai, du fait qu'en pratique on n'a jamais toute l'information nécessaire sur la distribution du montant des sinistres, on suppose que seuls les premiers moments de cette fonction sont connus. Cet essai développe et examine des méthodes qui permettent d'approximer, dans cette situation, le niveau de la barrière optimale, selon le critère usuel (cas I ci-dessus). Les approximations "de Vylder" et "diffusion" sont expliquées et examinées: Certaines de ces approximations utilisent deux, trois ou quatre des premiers moments. Des exemples numériques nous permettent de comparer les approximations du niveau de la barrière optimale, non seulement avec les valeurs exactes mais également entre elles. Chapitre 3: "Optimal dividends with incomplete information" Dans ce troisième et dernier essai, on s'intéresse à nouveau aux méthodes d'approximation du niveau de la barrière optimale quand seuls les premiers moments de la distribution du montant des sauts sont connus. Cette fois, on considère le modèle dual. Comme pour le modèle classique, dans un sens il y a un flux continu et dans l'autre un processus à sauts. A l'inverse du modèle classique, les gains suivent un processus de Poisson composé et les pertes sont constantes et continues; voir la Figure 2. Un tel modèle conviendrait pour une caisse de pension ou une société qui se spécialise dans les découvertes ou inventions. Ainsi, tant les approximations "de Vylder" et "diffusion" que les nouvelles approximations "gamma" et "gamma process" sont expliquées et analysées. Ces nouvelles approximations semblent donner de meilleurs résultats dans certains cas.
Resumo:
Au Canada, les avalanches constituent le géorisque le plus dangereux en période hivernale. On enregistre annuellement d’importants coûts économiques et sociaux associés aux impacts de ce phénomène naturel. Par exemple, la fermeture de routes en cas de risque d’avalanche est estimée à 5 millions de dollars (Jamieson et Stethem, 2002). La prévision des avalanches est, de nos jours, la meilleure méthode afin d’éviter ces coûts. Au Canada, cela s’effectue de façon ponctuelle à l’aide de méthodes manuelles tel que le test de compression (CAA, 2014). Les modèles de simulation du couvert neigeux permettent d’étendre les prévisions à l’ensemble d’une région et ainsi, atteindre certains lieux difficilement accessibles pour l’homme. On tente actuellement d’adapter le modèle SNOWPACK aux conditions canadiennes et plusieurs études ont eu pour but d’améliorer les simulations produites par celui-ci. Cette étude vise donc également l’amélioration des simulations par l’intégration des paramètres de végétation. L’objectif de l’étude est de paramétrer, pour la première fois, le module de végétation de SNOWPACK avec les données récoltées dans la réserve faunique des Chic-Chocs. Nous pourrons ainsi évaluer l’impact de la végétation sur la modélisation du couvert nival. Nous avons donc, lors de sorties de terrain, recueillis les données de neige et de végétation au niveau de quatre sites d’étude. Nous avons par la suite réalisé les simulations avec SNOWPACK et comparer les résultats des simulations avec et sans végétation aux données de terrain. L’étude nous révèle que le modèle diminue la quantité de neige au sol ainsi que la densité du manteau neigeux en présence de végétation. De plus nous avons pu constater que l’inclusion du module de végétation permet d’obtenir des données qui se rapprochent davantage de ce qui a été observé sur le terrain.
Resumo:
L’objectif de cet essai est de recommander des solutions alternatives aux méthodes de déglaçage présentement utilisées au Québec et au Canada. Actuellement, les routes hivernales sont maintenues sécuritaires grâce à l’épandage de sels de voirie et d’abrasifs. Le chlorure de sodium et le chlorure de calcium sont les plus utilisés sur les routes, en partie en raison de leurs faibles coûts. Or, les impacts négatifs d’une libération massive d’ions chlorure dans l’environnement sont nombreux. La perturbation de l’équilibre osmotique du sol menant à un dérèglement végétal, l’augmentation de la salinité de l’eau nuisant aux organismes aquatiques vertébrés et l’érosion accélérée du sol n’en sont que quelques-unes. En prime, les répercussions économiques reliées à la corrosion des véhicules et des structures routières, telles que les ponts et viaducs, causées par l’épandage de sels de voirie sont importantes. Ainsi, l’utilisation de méthodes alternatives peut limiter les impacts engendrés par les sels de voirie. Les recommandations sont divisées en deux catégories. D’une part, des recommandations sont formulées en lien avec l’épandage de produits de remplacements aux sels de voirie. L’exploitation du potentiel de l’extrait de betterave est suggérée. L’entretien hivernal des ponts et viaducs à l’aide de produits non corrosifs tels que les acétates est proposé, tout comme le traitement des piles d’abrasifs avec un produit comportant un pourcentage d’extrait de maïs. D’autre part, des recommandations concernant l’optimisation des méthodes employées et les visions environnementales à adopter en entretien hivernal sont formulées. Elles consistent à augmenter le nombre de villes québécoises participantes à la Stratégie québécoise pour une gestion environnementale des sels de voirie et de villes canadiennes éligibles au Code de pratique pour la gestion des sels de voirie, de miser en premier lieu sur l’amélioration des méthodes d’entretien hivernal dans les zones vulnérables prioritaires, de prendre en compte le cycle de vie des composés alternatifs et enfin d’effectuer une réduction à la source des émissions de sels de voirie dans l’environnement. Enfin, puisqu’aucune solution idéale n’existe, la solution réside en l’amélioration des méthodes actuelles et l’utilisation d’une combinaison d’alternatives, chacune jouant un rôle dans une situation qui lui est propre pour atténuer des impacts causés par l’épandage de sels de voirie.
Resumo:
Au Québec, l’épandage des sels de déglaçage pendant l’entretien hivernal des routes est l’une des causes de la corrosion des armatures en acier dans les ouvrages routiers en béton armé. La corrosion de l’acier crée des tensions internes dans le béton, ce qui entraine l’éclatement du béton qui enrobe l’armature d’acier. La durée de vie des infrastructures routières est par conséquent réduite et les coûts d’entretien sont augmentés. Le présent projet de recherche est né d’une collaboration entre le ministère des Transports, de la Mobilité durable et de l’Électrification des Transports (MTMDET) et l’Université de Sherbrooke. Il vise à étudier l’utilisation des barres en polymères renforcés de fibres de verre (PRFV), non sujettes à la corrosion dans les dalles en béton armé continu (BAC). Dans cette étude, une section de chaussée de 300 mètres de long a été instrumentée pendant la reconstruction de l’autoroute 40 Ouest à Montréal, pour caractériser le comportement à court et à long terme des dalles en BAC avec des armatures en PRFV. Les résultats expérimentaux montrent que les conditions climatiques affectent considérablement le comportement à la fissuration des dalles en BAC de PRFV et d’acier. Une analyse par éléments finis d’une section de la chaussée a été également réalisée avec le logiciel Abaqus en vue d’étudier l’influence de plusieurs paramètres tels que le taux d’armature longitudinale, les propriétés des barres de PRFV et leur profondeur, l’épaisseur de la dalle, le coefficient de dilatation thermique du béton et l’espacement des armatures transversales sur le comportement de la dalle en BAC de PRFV. Le modèle par éléments finis a été validé avec les résultats expérimentaux obtenus en chantier. Les résultats numériques montrent que le coefficient de dilatation thermique du béton, le taux d’armature longitudinale, les propriétés des barres de PRFV et leur positionnement dans la dalle, l’épaisseur de la dalle constituent les paramètres qui influencent le plus le comportement des dalles en BAC. Pour le dimensionnement des dalles en BAC de PRFV, des taux d’armature ainsi que des propriétés de barres de PRFV ont été proposés en tenant compte des résultats expérimentaux ainsi que de l’analyse par éléments finis.
Resumo:
Hydrolytic kinetic resolution (HKR) of functionalised epoxides using (salen)Co(OAc) complexes provides enantiomerically enriched epoxides and diols, which have been transformed into important insect sex pheromones. In this general approach, (-)-(R)- and (+)-(S)-10-methyldodecyl acetates from the smaller tea tortrix moth were obtained, as was (-)-(R)-10-methyltridecan-2-one from the southern corn rootworm. The (S)-epoxide obtained from undec-1-en-6-yne was transformed to (-)-(R)-(Z)-undec-6-en-2-ol (Nostrenol) from ant-lions. HKR of appropriate bisepoxides was also investigated, and transformations of the resulting bisepoxides and epoxydiols provided (-)-(1R,7R)-1,7-dimethylnonylpropanoate from corn rootworms, (-)-(6R,12R)-6,12-dimethylpentadecan-2-one from the female banded cucumber beetle, and (-)-(2S,11S)-2,11-diacetoxytridecane and (+)-(2S,12S)-2,12-diacetoxytridecane from female pea-midges. (C) 2002 Elsevier Science Ltd. All rights reserved.
Resumo:
Échelle(s) : [ca 1:1 600 000]
Resumo:
Échelle(s) : [ca 1:2 440 000], échelle 100 kilomètres [= 4,1 cm]
Resumo:
Échelle(s) : [ca 1:1 600 000]
Resumo:
Échelle(s) : [ca 1:1 4640 000], échelle de 25 lieues communes de France [= 7,6 cm]
Resumo:
Échelle(s) : [ca 1:2 440 000], échelle 100 kilomètres [= 4,1 cm]
Resumo:
Les bénéfices et les risques environnementaux du blé de printemps génétiquement modifié (GM), plus résistant à l'oïdium, ont été étudiés sur deux sites en plein champ de 2008 à 2010, dans le cadre d'un réseau de groupes de recherche suisses. Les lignées de blé GM, possédant une résistance spécifique à l'oïdium et aux maladies fongiques en général, ont été comparées à des variétés de blé commercialisées, à des lignées témoins ainsi qu'à de l'orge et du triticale. Outre la résistance à l'oïdium, l'étude a également porté sur les répercussions sur les insectes et les organismes du sol (bactéries, champignons mycorhiziens, faune du sol) ainsi que sur les croisements fortuits du blé. Plusieurs lignées de blé GM étaient nettement plus résistantes à l'oïdium que les témoins. Aucun impact significatif sur les organismes non-cibles n'a été constaté, sur leur biodiversité ou sur certaines fonctions sélectionnées des écosystèmes. Dans l'ensemble, les différences entre le blé GM et les lignées témoins étaient moindres qu'entre les variétés de blé commerciales ou les autres espèces de céréales. Les cas de croisement fortuits étaient rares et n'ont été trouvés qu'à faible distance des plantes GM de l'essai.