961 resultados para Calculs DFT
Resumo:
Understanding the overall catalytic activity trend for rational catalyst design is one of the core goals in heterogeneous catalysis. In the past two decades, the development of density functional theory (DFT) and surface kinetics make it feasible to theoretically evaluate and predict the catalytic activity variation of catalysts within a descriptor-based framework. Thereinto, the concept of the volcano curve, which reveals the general activity trend, usually constitutes the basic foundation of catalyst screening. However, although it is a widely accepted concept in heterogeneous catalysis, its origin lacks a clear physical picture and definite interpretation. Herein, starting with a brief review of the development of the catalyst screening framework, we use a two-step kinetic model to refine and clarify the origin of the volcano curve with a full analytical analysis by integrating the surface kinetics and the results of first-principles calculations. It is mathematically demonstrated that the volcano curve is an essential property in catalysis, which results from the self-poisoning effect accompanying the catalytic adsorption process. Specifically, when adsorption is strong, it is the rapid decrease of surface free sites rather than the augmentation of energy barriers that inhibits the overall reaction rate and results in the volcano curve. Some interesting points and implications in assisting catalyst screening are also discussed based on the kinetic derivation. Moreover, recent applications of the volcano curve for catalyst design in two important photoelectrocatalytic processes (the hydrogen evolution reaction and dye-sensitized solar cells) are also briefly discussed.
Resumo:
Metal exchanged CHA-type (SAPO-34 and SSZ-13) zeolites are promising catalysts for selective catalytic reduction (SCR) of NOx by NH3. However, the understanding of the process at the molecular level is still limited, which hinders the identification of its mechanism and the design of more efficient zeolite catalysts. In this work, modelling the reaction over Cu-SAPO-34, a periodic density functional theory (DFT) study of NH3-SCR was performed using hybrid functional with the consideration of van der Waals (vdW) interactions. A mechanism with a low N–N coupling barrier is proposed to account for the activation of NO. The redox cycle of Cu2+ and Cu+, which is crucial for the SCR process, is identified with detailed analyses. Besides, the decomposition of NH2NO is shown to readily occur on the Brønsted acid site by a hydrogen push-pull mechanism, confirming the collective efforts of Brønsted acid and Lewis acid (Cu2+) sites. The special electronic and structural properties of Cu-SAPO-34 are demonstrated to play an essential role the reaction, which may have a general implication on the understanding of zeolite catalysis.
Resumo:
Les algèbres de Temperley-Lieb originales, aussi dites régulières, apparaissent dans de nombreux modèles statistiques sur réseau en deux dimensions: les modèles d'Ising, de Potts, des dimères, celui de Fortuin-Kasteleyn, etc. L'espace d'Hilbert de l'hamiltonien quantique correspondant à chacun de ces modèles est un module pour cette algèbre et la théorie de ses représentations peut être utilisée afin de faciliter la décomposition de l'espace en blocs; la diagonalisation de l'hamiltonien s'en trouve alors grandement simplifiée. L'algèbre de Temperley-Lieb diluée joue un rôle similaire pour des modèles statistiques dilués, par exemple un modèle sur réseau où certains sites peuvent être vides; ses représentations peuvent alors être utilisées pour simplifier l'analyse du modèle comme pour le cas original. Or ceci requiert une connaissance des modules de cette algèbre et de leur structure; un premier article donne une liste complète des modules projectifs indécomposables de l'algèbre diluée et un second les utilise afin de construire une liste complète de tous les modules indécomposables des algèbres originale et diluée. La structure des modules est décrite en termes de facteurs de composition et par leurs groupes d'homomorphismes. Le produit de fusion sur l'algèbre de Temperley-Lieb originale permet de «multiplier» ensemble deux modules sur cette algèbre pour en obtenir un autre. Il a été montré que ce produit pouvait servir dans la diagonalisation d'hamiltoniens et, selon certaines conjectures, il pourrait également être utilisé pour étudier le comportement de modèles sur réseaux dans la limite continue. Un troisième article construit une généralisation du produit de fusion pour les algèbres diluées, puis présente une méthode pour le calculer. Le produit de fusion est alors calculé pour les classes de modules indécomposables les plus communes pour les deux familles, originale et diluée, ce qui vient ajouter à la liste incomplète des produits de fusion déjà calculés par d'autres chercheurs pour la famille originale. Finalement, il s'avère que les algèbres de Temperley-Lieb peuvent être associées à une catégorie monoïdale tressée, dont la structure est compatible avec le produit de fusion décrit ci-dessus. Le quatrième article calcule explicitement ce tressage, d'abord sur la catégorie des algèbres, puis sur la catégorie des modules sur ces algèbres. Il montre également comment ce tressage permet d'obtenir des solutions aux équations de Yang-Baxter, qui peuvent alors être utilisées afin de construire des modèles intégrables sur réseaux.
Resumo:
Les organismes aquatiques sont adaptés à une grande variabilité hydrique et thermique des rivières. Malgré ceci, la régulation des eaux suscite des changements aux débits qui peuvent provoquer des impacts négatifs sur la biodiversité et les processus écologiques en rivière. Celle-ci peut aussi causer des modifications au niveau des régimes thermiques et des caractéristiques de l’habitat du poisson. Des données environnementales et biologiques décrivant l’habitat du poisson existent, mais elles sont incomplètes pour plusieurs rivières au Canada et de faible qualité, limitant les relations quantitatives débit-température-poissons à un petit nombre de rivières ou à une région étudiée. La recherche menée dans le cadre de mon doctorat concerne les impacts de la génération d'hydroélectricité sur les rivières; soit les changements aux régimes hydriques et thermiques reliés à la régulation des eaux sur la variation des communautés ichtyologiques qui habitent les rivières régulées et naturelles au Canada. Suite à une comparaison d’échantillonnage de pêche, une méthode constante pour obtenir des bons estimés de poisson (richesse, densité et biomasse des espèces) a été établie pour évaluer la structure de la communauté de poissons pour l’ensemble des rivières ciblées par l’étude. Afin de mieux comprendre ces changements environnementaux, les principales composantes décrivant ces régimes ont été identifiées et l’altération des régimes hydriques pour certaines rivières régulées a été quantifiée. Ces résultats ont servi à établir la relation significative entre le degré de changement biotique et le degré de changement hydrique pour illustrer les différences entre les régimes de régulation. Pour faire un complément aux indices biotiques déjà calculés pour l’ensemble des communautés de poissons (diversité, densité et biomasse des espèces par rivière), les différences au niveau des guildes de poissons ont été quantifiées pour expliquer les divers effets écologiques dus aux changements de régimes hydriques et thermiques provenant de la gestion des barrages. Ces derniers résultats servent à prédire pour quels traits écologiques ou groupes d’espèces de poissons les composantes hydriques et thermiques sont importantes. De plus, ces derniers résultats ont servi à mettre en valeur les variables décrivant les régimes thermiques qui ne sont pas toujours inclues dans les études hydro-écologiques. L’ensemble des résultats de cette thèse ont des retombées importantes sur la gestion des rivières en évaluant, de façon cohérente, l’impact de la régulation des rivières sur les communautés de poissons et en développant des outils de prévision pour la restauration des écosystèmes riverains.
Resumo:
Les réseaux de capteurs sont formés d’un ensemble de dispositifs capables de prendre individuellement des mesures d’un environnement particulier et d’échanger de l’information afin d’obtenir une représentation de haut niveau sur les activités en cours dans la zone d’intérêt. Une telle détection distribuée, avec de nombreux appareils situés à proximité des phénomènes d’intérêt, est pertinente dans des domaines tels que la surveillance, l’agriculture, l’observation environnementale, la surveillance industrielle, etc. Nous proposons dans cette thèse plusieurs approches pour effectuer l’optimisation des opérations spatio-temporelles de ces dispositifs, en déterminant où les placer dans l’environnement et comment les contrôler au fil du temps afin de détecter les cibles mobiles d’intérêt. La première nouveauté consiste en un modèle de détection réaliste représentant la couverture d’un réseau de capteurs dans son environnement. Nous proposons pour cela un modèle 3D probabiliste de la capacité de détection d’un capteur sur ses abords. Ce modèle inègre également de l’information sur l’environnement grâce à l’évaluation de la visibilité selon le champ de vision. À partir de ce modèle de détection, l’optimisation spatiale est effectuée par la recherche du meilleur emplacement et l’orientation de chaque capteur du réseau. Pour ce faire, nous proposons un nouvel algorithme basé sur la descente du gradient qui a été favorablement comparée avec d’autres méthodes génériques d’optimisation «boites noires» sous l’aspect de la couverture du terrain, tout en étant plus efficace en terme de calculs. Une fois que les capteurs placés dans l’environnement, l’optimisation temporelle consiste à bien couvrir un groupe de cibles mobiles dans l’environnement. D’abord, on effectue la prédiction de la position future des cibles mobiles détectées par les capteurs. La prédiction se fait soit à l’aide de l’historique des autres cibles qui ont traversé le même environnement (prédiction à long terme), ou seulement en utilisant les déplacements précédents de la même cible (prédiction à court terme). Nous proposons de nouveaux algorithmes dans chaque catégorie qui performent mieux ou produits des résultats comparables par rapport aux méthodes existantes. Une fois que les futurs emplacements de cibles sont prédits, les paramètres des capteurs sont optimisés afin que les cibles soient correctement couvertes pendant un certain temps, selon les prédictions. À cet effet, nous proposons une méthode heuristique pour faire un contrôle de capteurs, qui se base sur les prévisions probabilistes de trajectoire des cibles et également sur la couverture probabiliste des capteurs des cibles. Et pour terminer, les méthodes d’optimisation spatiales et temporelles proposées ont été intégrées et appliquées avec succès, ce qui démontre une approche complète et efficace pour l’optimisation spatio-temporelle des réseaux de capteurs.
Resumo:
Avec le vieillissement des infrastructures routières au Québec, plusieurs ponts de courte portée devront être reconstruits à neuf au cours des prochaines années. La pratique usuelle est de les concevoir entièrement en béton ou en systèmes mixtes acier-béton. Toutefois, avec l’avancement de la recherche dans le domaine du bois, le système hybride bois-béton est envisageable. Le but est de tirer profit des avantages de chaque matériau en les disposant aux endroits appropriés. Le tablier du pont est constitué d’une dalle de béton qui agit en compression et protège des intempéries les poutres en bois lamellé-collé qui résistent en traction. L’enjeu est la capacité de lier efficacement ces deux matériaux pour qu’ils puissent reprendre les efforts dus aux charges de conception avec un glissement d’interface minimal. De nombreux chercheurs ont proposé diverses méthodes pour répondre à cette problématique. Les connecteurs locaux (vis, clous) sont moins rigides et se déforment beaucoup à l’ultime. À l’inverse, les connecteurs continus offrent une rigidité très élevée, de petits déplacements à rupture sans négliger la plasticité du système. Pour cette raison, le connecteur choisi est le HBV Shear, une mince bande d’acier de 90mm de hauteur perforée de trous de 10mm. Sa moitié inférieure est collée dans une fente pratiquée dans la poutre et la partie supérieure est immergée dans le béton. Pour caractériser le comportement du connecteur, dix essais en cisaillement simple ont été effectués. Ils ont permis de quantifier la rigidité et d’apprécier la ductilité qui s’installe dans le système par l’ajout de l’acier. Par la suite, six poutres hybrides simple de 4 m, deux systèmes à poutres double de 4m et deux poutres hybrides de 12m de portée ont été amenées à la rupture en flexion. Ces essais ont montré que le connecteur se brisait sous l’effort de manière ductile avant la rupture fragile de la poutre en bois. Les résultats ont aussi prouvé que les méthodes de calculs utilisées estiment correctement la séquence de rupture ainsi que le comportement du système avec une très grande efficacité. Finalement, un tablier de pont composite a été conçu pour résister aux efforts à l’ultime, en service et à long terme.
Resumo:
Thesis (Ph.D.)--University of Washington, 2016-06
Resumo:
Ruthenium complexes have proved to exhibit antineoplastic activity related to the interaction of metal ion with DNA nucleobases. It is indeed of great interest to provide new insights on theses cutting-edge studies, such as the identification of distinct coordinative modes of DNA binding sites. During the investigation on the reaction between [(PPh3)3Ru(CO)(H)2], 1, and the Thymine Acetic Acid (THA) as model for nucleobases, we identified an unstable monohapto hydride acetate complex 2, which rapidly evolves into elusive intermediates whose nature was evidenced by NMR spectra and DFT calculations. We obtained crystals of [(PPh3)2Ru(CO)(k1-THA)(k2-THA)] 17, and [Ru(CO)(PPh3)2(k2-N,O)-[THA(A)];(k1-O)[THA(B)]2 18, phosphine ligands assuming cis conformation. The thesis deals on the analogue reactions of 1 with acetic acid by varying different parameters and operating conditions. The reaction yields to the hydride dihapto-acetate [(PPh3)2RuH(CO)(k2-Ac)] 8 through the related meridian monohapto, by releasing of phosphine ligand. However, the reaction yields a mixture of compounds, in which the dihapto hydride complex 8 is prevailing in any cases and does not provide any disclosure for the proposed mechanistic aspects. The reaction with two equivalents of acetic acid, affords the complex [(PPh3)2Ru(CO)(k1-Ac)(k2-Ac)] 11, exhibiting mutual trans:cis locations in 2:1 ratio for the phosphine. Such evidence agrees with the results obtained DFT calculations in vacuo, whereas it is in contrast with those obtained with the THA. Therefore we can inferred that the products obtained from the latter reaction is intermolecularly ruled by the hydrogen binding interactions between the functions [-NH•••(O)C-] in the two coordinated thymine ligands.
Resumo:
In the last decades, cyclometalated Ir(III) complexes have drawn a large interest for their unique properties: they are excellent triplet state emitters, thus the emission is phosphorescent in nature; typically high quantum yields and good stability make them good candidates for luminescent materials. Moreover, through an opportune choice of the ligands, it is possible to tune the emission along the whole visible spectra. Thanks to these interesting features, Ir(III) complexes have found different applications in several areas of applied science, from OLEDs to bioimaging. In particular, regarding the second application, a remarkable red-shift in the emission is required, in order to minimize the problem of the tissue penetration and the possible damages for the organisms. With the aim of synthesizing a new family of NIR emitting Ir(III) complexes, we envisaged the possibility to use for the first time 2-(1H-tetrazol-1-yl)pyridine as bidentate ligand able to provide the required red-shift of the emission of the final complexes. Exploiting the versatility of the ligand, I prepared two different families of heteroleptic Ir(III) complexes. In detail, in the first case the 2-(1H-tetrazol-1-yl)pyridine was used as bis-chelating N^N ligand, leading to cationic complexes, while in the second case it was used as cyclometalating C^N ligand, giving neutral complexes. The structures of the prepared molecules have been characterised by NMR spectroscopy and mass spectrometry. Moreover, the neutral complexes’ emissive properties have been measured: emission spectra have been recorded in solution at both room temperature and 77K, as well as in PMMA matrix. DFT calculation has then been performed and the obtained results have been compared to experimental ones.
Resumo:
L'imagerie par tomographie optique diffuse requiert de modéliser la propagation de la lumière dans un tissu biologique pour une configuration optique et géométrique donnée. On appelle cela le problème direct. Une nouvelle approche basée sur la méthode des différences finies pour modéliser numériquement via l'équation de la diffusion (ED) la propagation de la lumière dans le domaine temporel dans un milieu inhomogène 3D avec frontières irrégulières est développée pour le cas de l'imagerie intrinsèque, c'est-à-dire l'imagerie des paramètres optiques d'absorption et de diffusion d'un tissu. Les éléments finis, lourds en calculs, car utilisant des maillages non structurés, sont généralement préférés, car les différences finies ne permettent pas de prendre en compte simplement des frontières irrégulières. L'utilisation de la méthode de blocking-off ainsi que d'un filtre de Sobel en 3D peuvent en principe permettre de surmonter ces difficultés et d'obtenir des équations rapides à résoudre numériquement avec les différences finies. Un algorithme est développé dans le présent ouvrage pour implanter cette approche et l'appliquer dans divers cas puis de la valider en comparant les résultats obtenus à ceux de simulations Monte-Carlo qui servent de référence. L'objectif ultime du projet est de pouvoir imager en trois dimensions un petit animal, c'est pourquoi le modèle de propagation est au coeur de l'algorithme de reconstruction d'images. L'obtention d'images requière la résolution d'un problème inverse de grandes dimensions et l'algorithme est basé sur une fonction objective que l'on minimise de façon itérative à l'aide d'une méthode basée sur le gradient. La fonction objective mesure l'écart entre les mesures expérimentales faites sur le sujet et les prédictions de celles-ci obtenues du modèle de propagation. Une des difficultés dans ce type d'algorithme est l'obtention du gradient. Ceci est fait à l'aide de variables auxiliaire (ou adjointes). Le but est de développer et de combiner des méthodes qui permettent à l'algorithme de converger le plus rapidement possible pour obtenir les propriétés optiques les plus fidèles possible à la réalité capable d'exploiter la dépendance temporelle des mesures résolues en temps, qui fournissent plus d'informations tout autre type de mesure en TOD. Des résultats illustrant la reconstruction d'un milieu complexe comme une souris sont présentés pour démontrer le potentiel de notre approche.
Resumo:
Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.
Resumo:
Un moyen permettant d'identifier expérimentalement les phases du gaz d'électrons bidimensionnel de la bicouche de graphène en empilement bernal au remplissage $\nu = 3$ est recherché lorsque le biais électrique entre les couches est varié. À ce remplissage, si on se concentre aux basses énergies, il est possible de ne s'intéresser qu'aux deux niveaux de Landau composant le niveau $N=0$ qui sont de même spin et de même vallée, mais d'orbitale différente. Puisque la texture du pseudospin orbital de ce système change selon la phase, il est attendu que le couplage avec le champ électrique de la lumière devrait changer. La dispersion des modes collectifs de chaque phase est calculée dans l'approximation GRPA (generalized random-phase approximation) dans le domaine en biais où chacune domine respectivement. L'absorption optique pour des polarisations linéaires en direction x et en direction y ainsi que pour des polarisations circulaires gauche et droite est calculée. La rotation de Faraday et l'effet Kerr sont également calculés. Des différences entre les phases sont remarquées au niveaux de la fréquence des photons qui sont absorbés, de l'amplitude de l'absorption et de la rotation de la polarisation ainsi que la sensibilité à certains types de polarisation. L'effet des modes collectifs dans les phases considérées est cependant moindre que celui qui est prédit dans un calcul qui ne tient pas compte de l'interaction de Coulomb.
Resumo:
La protection de la biodiversité locale consiste en un enjeu que certaines municipalités au Québec commencent à prendre en compte dans leur gestion. Le suivi et l’évaluation de la biodiversité par des indicateurs sont importants pour favoriser une gestion efficace de la diversité biologique. L’utilisation d’indicateurs adéquats est essentielle pour assurer que les mesures obtenues présentent des informations relatives à l’état, aux pressions et aux réponses en lien avec la biodiversité. Jusqu’à présent, la majorité des indicateurs de biodiversité développés concernent plutôt l’échelle nationale. L’objectif de l’essai est d’évaluer la pertinence des indicateurs de biodiversité utilisés par les municipalités au Québec afin d’améliorer la conservation de la biodiversité à l’échelle locale. Des critères d’une série d’indicateurs de biodiversité pour les municipalités sont identifiés en se basant sur les caractéristiques des indicateurs et sur les indicateurs de biodiversité proposés dans divers ouvrages. Les indicateurs proposés par le gouvernement et ceux utilisés par des municipalités québécoises sont aussi ciblés. L’analyse comparative des indicateurs ciblés selon les critères identifiés permet de formuler des recommandations au gouvernement et aux municipalités de la province. L’utilisation d’indicateurs de biodiversité adéquats pour les municipalités est essentielle pour effectuer un meilleur suivi de la biodiversité locale. Le gouvernement et les municipalités devraient favoriser la sélection d’un nombre approprié d’indicateurs portant sur la biodiversité et sur les objectifs de gestion, et qui sont également adéquats à une échelle locale, faciles à comprendre, validés sur des bases scientifiques et pouvant être calculés par des données accessibles. Une série pertinente devrait aussi contenir des indicateurs d’état, de pressions et de réponses qui mesurent la diversité génétique, spécifique et écosystémique, ainsi que les différents services écologiques. De plus, les indicateurs devraient idéalement permettre de prendre en compte la capacité de support des écosystèmes. Afin d’aider le gouvernement et les municipalités à améliorer leurs indicateurs, une série qui respectent ces recommandations est proposée à titre d’exemple. Toutefois, le suivi de la biodiversité locale nécessite que les municipalités s’impliquent au niveau de la conservation et de la protection de la biodiversité. Il est donc recommandé au gouvernement d’assujettir les municipalités de la province à la Loi sur le développement durable et de les inclure directement dans les démarches gouvernementales en matière de biodiversité.
Resumo:
Abstract: Highway bridges have great values in a country because in case of any natural disaster they may serve as lines to save people’s lives. Being vulnerable under significant seismic loads, different methods can be considered to design resistant highway bridges and rehabilitate the existing ones. In this study, base isolation has been considered as one efficient method in this regards which in some cases reduces significantly the seismic load effects on the structure. By reducing the ductility demand on the structure without a notable increase of strength, the structure is designed to remain elastic under seismic loads. The problem associated with the isolated bridges, especially with elastomeric bearings, can be their excessive displacements under service and seismic loads. This can defy the purpose of using elastomeric bearings for small to medium span typical bridges where expansion joints and clearances may result in significant increase of initial and maintenance cost. Thus, supplementing the structure with dampers with some stiffness can serve as a solution which in turn, however, may increase the structure base shear. The main objective of this thesis is to provide a simplified method for the evaluation of optimal parameters for dampers in isolated bridges. Firstly, performing a parametric study, some directions are given for the use of simple isolation devices such as elastomeric bearings to rehabilitate existing bridges with high importance. Parameters like geometry of the bridge, code provisions and the type of soil on which the structure is constructed have been introduced to a typical two span bridge. It is concluded that the stiffness of the substructure, soil type and special provisions in the code can determine the employment of base isolation for retrofitting of bridges. Secondly, based on the elastic response coefficient of isolated bridges, a simplified design method of dampers for seismically isolated regular highway bridges has been presented in this study. By setting objectives for reduction of displacement and base shear variation, the required stiffness and damping of a hysteretic damper can be determined. By modelling a typical two span bridge, numerical analyses have followed to verify the effectiveness of the method. The method has been used to identify equivalent linear parameters and subsequently, nonlinear parameters of hysteretic damper for various designated scenarios of displacement and base shear requirements. Comparison of the results of the nonlinear numerical model without damper and with damper has shown that the method is sufficiently accurate. Finally, an innovative and simple hysteretic steel damper was designed. Five specimens were fabricated from two steel grades and were tested accompanying a real scale elastomeric isolator in the structural laboratory of the Université de Sherbrooke. The test procedure was to characterize the specimens by cyclic displacement controlled tests and subsequently to test them by real-time dynamic substructuring (RTDS) method. The test results were then used to establish a numerical model of the system which went through nonlinear time history analyses under several earthquakes. The outcome of the experimental and numerical showed an acceptable conformity with the simplified method.
Resumo:
La présente étude vise à définir le processus de transaction, des différentes composantes des coûts de transaction, et des différents moyens pour les mesurer. Plus particulièrement, cette étude porte sur l'utilité de l'évaluation des gestionnaires de portefeuille de l'Université de Sherbrooke par rapport aux coûts de transaction calculés par Abel Noser. Abel Noser est une firme de consultant de New York qui se spécialise dans l'évaluation des fonds de pension. Ils ont mesuré durant deux périodes, les commissions et l'impact de marché subi par des courtiers utilisés par les gestionnaires. L'objectif principal, voulait examiner s'il y avait eu une différence au niveau de l'impact de marché subi par les courtiers pour les deux périodes. Vu que les courtiers n'ont pas été avertis qu'ils étaient mesurés, on ne devrait pas trouver de différence significative. Par contre, s'il y a une différence entre les deux périodes, alors que les courtiers n'étaient pas informés, on pourra conclure que la mesure d'Abel Noser donne des résultats aléatoires puisque les courtiers ne sont pas sensés avoir cherché à contourner le système. La synthèse des résultats de la première hypothèse n'a pas permis de vérifier la validité de la mesure d'Abel Noser. Par contre, quand on se réfère aux critiques faites par plusieurs auteurs, la mesure d'Abel Noser peut porter à confusion. En conclusion, cette étude ne recommande donc pas au comité de retraite de l'Université de Sherbrooke d'utiliser les services d'Abel Noser.