32 resultados para Commande optimale linéaire-quadratique

em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Depuis le lancement du premier satellite Spoutnik 1 en 1957, l’environnement spatial est de plus en plus utilisé et le nombre de débris orbitaux se multiplie naturellement, soit par des explosions, des collisions ou tout simplement par les opérations normales des satellites. Au-delà d'un certain seuil, la densité des débris orbitaux risque de créer une réaction en chaîne incontrôlée : l’effet Kessler. L’élimination des débris orbitaux en basse altitude permettrait de limiter cette réaction et ainsi de préserver l’environnement spatial afin de pouvoir l’utiliser de façon sécuritaire. L’élimination des débris orbitaux est une opération complexe et coûteuse. Elle consiste à déplacer des objets spatiaux inactifs vers une orbite basse pour mener à leur désintégration dans la basse atmosphère terrestre. En utilisant les perturbations orbitales, il est possible de réduire le coût du carburant requis pour effectuer les manœuvres orbitales nécessaires à l’élimination de ces débris. L'objectif principal de cette étude consiste à développer une procédure et une stratégie de commande autonome afin de modifier l'orbite des satellites non opérationnels (débris) pour mener à leur désintégration naturelle tout en optimisant les facteurs carburant et temps. Pour ce faire, un modèle d’atmosphère basé sur le modèle de Jacchia (1977) est développé. Un modèle de la dynamique du satellite inclut aussi les perturbations principales, soit : traînée atmosphérique, non sphéricité et distribution non uniforme de la masse de la Terre. Ces modèles ainsi qu'un algorithme de commande optimale pour un propulseur électrique sont développés et le tout est validé par simulations numériques sur Matlab/Simulink. Au terme de cette étude, les conditions optimales dans lesquelles il faut laisser un débris afin qu'il se désintègre dans la basse atmosphère de la Terre en quelques semaines seront données (type d'orbite : altitude, inclinaison, etc.) ainsi que le coût en carburant pour une telle mission. Cette étude permettra de prouver qu'il est possible de réaliser des missions d'élimination des débris orbitaux tout en réduisant les coûts associés aux manœuvres orbitales par l'utilisation des perturbations naturelles de l'environnement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ventilation liquidienne totale (VLT) consiste à remplir les poumons d'un liquide perfluorocarbone (PFC). Un respirateur liquidien assure la ventilation par un renouvellement cyclique de volume courant de PFC oxygéné et à température contrôlée. Ayant une capacité thermique volumique 1665 fois plus élevée que l'air, le poumon rempli de PFC devient un échangeur de chaleur performant avec la circulation pulmonaire. La température du PFC inspiré permet ainsi de contrôler la température artérielle, et par le fait même, le refroidissement des organes et des tissus. Des résultats récents d'expérimentations animales sur petits animaux ont démontré que le refroidissement ultra-rapide par VLT hypothermisante (VLTh) avait d'importants effets neuroprotecteurs et cardioprotecteurs. Induire rapidement et efficacement une hypothermie chez un patient par VLTh est une technique émergente qui suscite de grands espoirs thérapeutiques. Par contre, aucun dispositif approuvé pour la clinique n'est disponible et aucun résultat de VLTh sur humain n'est encore disponible. Le problème se situe dans le fait de contrôler la température du PFC inspiré de façon optimale pour induire une hypothermie chez l'humain tout en s'assurant que la température cardiaque reste supérieure à 30 °C pour éviter tout risque d'arythmie. Cette thèse présente le développement d'un modèle thermique paramétrique d'un sujet en VLTh complètement lié à la physiologie. Aux fins de validation du modèle sur des ovins pédiatriques et adultes, le prototype de respirateur liquidien Inolivent pour nouveau-né a dû être reconçu et adapté pour ventiler de plus gros animaux. Pour arriver à contrôler de façon optimale la température du PFC inspiré, un algorithme de commande optimale sous-contraintes a été développé. Après la validation du modèle thermique du nouveau-né à l'adulte par expérimentations animales, celui-ci a été projeté à l'humain. Afin de réduire le temps de calcul, un passage du modèle thermique en temps continu vers un modèle discret cycle-par-cycle a été effectué. À l'aide de la commande optimale et du développement numérique d'un profil de ventilation liquidienne chez des patients humains, des simulations d'induction d'hypothermie par VLTh ont pu être réalisées. La validation expérimentale du modèle thermique sur ovins nouveau-nés (5 kg), juvéniles (22 kg) et adultes (61 kg) a montré que celui-ci permettait de prédire les températures artérielles systémiques, du retour veineux et rectales. La projection à l'humain a permis de démontrer qu'il est possible de contrôler la température du PFC de façon optimale en boucle ouverte si le débit cardiaque et le volume mort thermique sont connus. S'ils ne peuvent être mesurés, la commande optimale pour le pire cas peut être calculée rendant l'induction d'hypothermie par VLTh sécuritaire pour tous les patients, mais diminuant quelque peu les vitesses de refroidissement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le contrôle de bruit est un domaine de recherche très fertile. Que ce soit pour du contrôle actif ou passif, de nombreuses recherches sont menées pour améliorer les méthodes existantes ou pour trouver de nouveaux procédés. Ainsi, dans le domaine du contrôle actif, de nouveaux moyens de production d’anti-bruit sont développés en vue de les substituer aux duos amplificateur/haut-parleur fragiles, gourmands en énergie et encombrants. Le sujet abordé ici est la conception et la réalisation d’un prototype capable de générer de forts niveaux de bruit à partir d’une source d’écoulement d’air à fort débit. Le prototype servira ensuite de source pour le contrôle actif du bruit d’un ventilateur. Pour atteindre ces performances, un design simple a été développé : l’obstruction périodique de l’écoulement d’air comprimé génère une source acoustique harmonique à la fréquence d’obstruction de l’écoulement. Le contrôle de la vitesse de l’obstruction gère la fréquence et la phase de l’anti-bruit émis. Le dispositif conçu dans ce projet permet de générer un bruit tonal réglé en phase et en fréquence sur une référence, pour une pression acoustique de 110 dB à 1 m.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La relation entre l'espace tablette et les ventes a été l'une des toutes premières à être analysée dans la littérature traitant du commerce au détail. Cette relation tait aussi assez souvent les manchettes des journaux. Récemment, par exemple, on rapportait que Coke et Pepsi avaient "éliminé", à l'aide d'ententes à long terme avec les détaillants, l'espace accordé à tous les autres fabricants de boissons gazeuses. L'effet de l'espace tablette sur les ventes demeure donc un problème important et d'actualité…

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La sécurité des systèmes de transports intelligents est au centre de tous les débats. Afin de s’assurer un fonctionnement sécuritaire, il est nécessaire de pouvoir vérifier le bon fonctionnement des capteurs permettant d’avoir une parfaite connaissance de l’environnement et de l’état du véhicule. Cette thèse présente une nouvelle solution de détection et d’identification de faute pouvant apparaitre sur les capteurs embarqués d’un véhicule intelligent. Cette méthode est basée sur la redondance analytique des données, consistant à estimer une même mesure à l’aide de capteurs de différentes natures. Cette mesure subit alors une transformation non linéaire permettant à la fois d’accroitre la sensibilité aux fautes et d’être plus robuste aux bruits. Cette étude propose plusieurs solutions de transformation et d’estimation qui seront évaluées en simulation avant de proposer une méthode d’optimisation de la prise de décision en fonction de critères choisis par l’utilisateur. La description de l’architecture, des méthodes employées ainsi que des équations permettant l’établissement de celle-ci seront décrites dans le chapitre 3. L’évaluation en simulation des performances de l’architecture sera effectuée dans le chapitre 4 avant une analyse finale des résultats ainsi qu’une comparaison avec une solution existante dans le dernier chapitre, permettant la validation de notre approche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif de l’essai est d’identifier la stratégie optimale de cotation énergétique des habitations au Québec. À partir des expériences internationales, l’essai évalue, à l’aide d’une analyse multicritère, s’il est plus optimal pour le Québec (scénario A) de continuer à coter la performance énergétique des habitations existantes dans le programme Rénoclimat actuellement en vigueur (hors transactions immobilières) ou (scénario B) d’implanter un système de cotation énergétique pour les habitations lors des transactions immobilières en mode volontaire ou (scénario C) de l’implanter en mode réglementaire. Pour réduire la consommation énergétique et les émissions de gaz à effet de serre des bâtiments, de plus en plus de pays adoptent des législations en matière de cotation énergétique lors des transactions immobilières. Or, au Québec, il existe seulement des programmes de cotation énergétique des habitations existantes hors transactions immobilières dont la participation se fait sur une base volontaire. De plus, des exigences minimales de performance énergétique réglementaires pour les habitations neuves sont en vigueur depuis 2012, mais peu de mécanismes de renforcement sont utilisés pour en assurer le respect. Globalement, selon l’analyse multicritère, dans le cas où un soutien politique est offert et où les ressources financières, techniques, humaines, informatiques et législatives sont disponibles, et ce, tout au long du développement du projet, mais aussi lors de la phase d’opération, le scénario C permet de rencontrer un maximum de bénéfices. Sinon, pour éviter d’investir des ressources humaines et financières supplémentaires, de modifier la législation et de gérer une mise en œuvre complexe, il est possible de continuer à opérer le scénario A. Par contre, ce scénario ne permet pas de développer le plein potentiel de la cotation énergétique. Pour optimiser ce scénario, il est suggéré de renforcir certains éléments du programme. Enfin, il est déconseillé d’implanter le scénario B, à moins qu’il soit temporaire et accompagné d’une annonce dès le début de l’arrivée du système de cotation énergétique en mode réglementaire. En effet, l’analyse multicritère a permis de faire ressortir que les très rares et faibles impacts positifs du scénario B ne font pas le poids face aux ressources requises pour le mettre en œuvre. Dans le cas où l’implantation du scénario C est envisagée, il importe de rappeler que pour profiter des bénéfices estimés, des ressources importantes doivent être investies afin de respecter les nombreux facteurs clés de réussite. Le potentiel du scénario C peut être déployé seulement si ces conditions sont réunies pour s’assurer de la fiabilité du système et, par conséquent, pour assurer l’acceptabilité du public.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les caractéristiques physiques des granulats ont une forte influence sur la performance du béton, y compris l'ouvrabilité du béton, la zone de transition, le module d'élasticité, la résistance mécanique, etc. Comparativement aux bétons conventionnels vibrés, les bétons fluides à rhéologie adapté (BFRA) beaucoup plus complexes, doivent présenter une bonne stabilité (résistance à la ségrégation), une bonne rhéologie et les résistances mécaniques souhaitées. Le choix des granulats joue un rôle majeur pour l'obtention de ces différentes propriétés. Une meilleure compréhension de l'influence des caractéristiques physiques sur la performance des BFRA est nécessaire pour leur optimisation afin d'obtenir un bon rapport performance-coût. L'objectif principal de cette étude est de comprendre l'influence des propriétés physiques des granulats (forme, densité, granulométrie, module de finesse, et la quantité de particules plates ou allongées) sur la demande en superplastifiant, la rhéologie et les propriétés mécaniques des BFRA. Les types de bétons étudiés sont les bétons autoplaçants (BAP) destinés à la construction de bâtiments, les bétons semi-autoplaçants (BSAP) destinés pour la construction et la réparation des infrastructures et les BAP destinés à la préfabrication. Quatre rapports sable/granulat total (S/G), deux sables composés (manufacturé et naturel) au laboratoire de différentes finesses (MF = 2,5 et MF = 3) et un sable naturel provenant d'usines ont été utilisés. L'influence de la compacité granulaire, du type de sable (naturel vs manufacturé) et de la teneur en fines du squelette granulaire sur les propriétés rhéologiques et mécaniques des BFRA est étudiée. Douze mélanges de BSAP ont été formulés à cet effet. L'influence du type de granulométrie (continue ou discontinue), du diamètre nominal maximal des gros granulats (10, 14 et 20 mm) et de la forme des gros granulats (roulé, aplati et allongé) sur les propriétés rhéologiques et mécaniques des BFRA ont été étudiées. Quatre types de gros granulats provenant de l'industrie et sept gros granulats reconstitués en laboratoire ont été utilisés pour prendre en compte tous ces paramètres. Les résultats montrent que la compacité granulaire est une donnée importante à prendre en compte pour la formulation d'un BFRA (BAP ou BSAP). Cette étude a également montré que les particules fines de diamètres inférieurs à 315 [micro]m sont celles qui influencent les paramètres rhéologiques des BSAP. Pour un rapport E/L constant et un diamètre d'étalement fixe, l'augmentation de la teneur de particules passant le tamis 315 [micro]m augmente la viscosité plastique, diminue le seuil de cisaillement et augmente la stabilité statique des bétons. Cette étude préconise l'utilisation des granulats concassés de granulométrie continue contenant des particules équidimensionnelles pour améliorer les propriétés rhéologiques des bétons. Enfin, grâce à cette étude, la production des BAP dans les industries connaîtra une avancée majeure par un choix stratégique des granulats. Les industries pourront notamment faire une utilisation optimale des superplastifiants, adapter la rhéologie des BAP (viscosité plastique et seuil de cisaillement) au type de BAP tout en conservant leurs caractéristiques mécaniques. Cette étude bien que scientifique, répond en d'autres termes aux besoins de l'industrie car elle propose un bon rapport performance-coût des BAP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nématode doré, Globodera rostochiensis, est un nématode phytoparasite qui peut infecter des plantes agricoles telles la pomme de terre, la tomate et l’aubergine. En raison des pertes de rendement considérables associées à cet organisme, il est justifiable de quarantaine dans plusieurs pays, dont le Canada. Les kystes du nématode doré protègent les œufs qu’ils contiennent, leur permettant de survivre (en état de dormance) jusqu’à 20 ans dans le sol. L’éclosion des œufs n’aura lieu qu’en présence d’exsudats racinaires d’une plante hôte compatible à proximité. Malheureusement, très peu de connaissances sont disponibles sur les mécanismes moléculaires liés à cette étape-clé du cycle vital du nématode doré. Dans cet ouvrage, nous avons utilisé la technique RNA-seq pour séquencer tous les ARNm d’un échantillon de kystes du nématode doré afin d’assembler un transcriptome de novo (sans référence) et d’identifier des gènes jouant un rôle dans les mécanismes de survie et d’éclosion. Cette méthode nous a permis de constater que les processus d’éclosion et de parasitisme sont étroitement reliés. Plusieurs effecteurs impliqués dans le mouvement vers la plante hôte et la pénétration de la racine sont induits dès que le kyste est hydraté (avant même le déclenchement de l’éclosion). Avec l’aide du génome de référence du nématode doré, nous avons pu constater que la majorité des transcrits du transcriptome ne provenaient pas du nématode doré. En effet, les kystes échantillonnés au champ peuvent contenir des contaminants (bactéries, champignons, etc.) sur leur paroi et même à l’intérieur du kyste. Ces contaminants seront donc séquencés et assemblés avec le transcriptome de novo. Ces transcrits augmentent la taille du transcriptome et induisent des erreurs lors des analyses post-assemblages. Les méthodes de décontamination actuelles utilisent des alignements sur des bases de données d’organismes connus pour identifier ces séquences provenant de contaminants. Ces méthodes sont efficaces lorsque le ou les contaminants sont connus (possède un génome de référence) comme la contamination humaine. Par contre, lorsque le ou les contaminants sont inconnus, ces méthodes deviennent insuffisantes pour produire un transcriptome décontaminé de qualité. Nous avons donc conçu une méthode qui utilise un algorithme de regroupement hiérarchique des séquences. Cette méthode produit, de façon récursive, des sous-groupes de séquences homogènes en fonction des patrons fréquents présents dans les séquences. Une fois les groupes créés, ils sont étiquetés comme contaminants ou non en fonction des résultats d’alignements du sous-groupe. Les séquences ambiguës ayant aucun ou plusieurs alignements différents sont donc facilement classées en fonction de l’étiquette de leur groupe. Notre méthode a été efficace pour décontaminer le transcriptome du nématode doré ainsi que d’autres cas de contamination. Cette méthode fonctionne pour décontaminer un transcriptome, mais nous avons aussi démontré qu’elle a le potentiel de décontaminer de courtes séquences brutes. Décontaminer directement les séquences brutes serait la méthode de décontamination optimale, car elle minimiserait les erreurs d’assemblage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Problématique : Le trouble de la personnalité limite (TPL) est une condition psychiatrique touchant environ 1 % de la population et 20 % de la clientèle recevant des services en psychiatrie (Gunderson et Links, 2008). L’un des domaines du fonctionnement dans la vie quotidienne le plus touché chez cette population est le travail (Gunderson et al., 2011; Larivière et al., 2010; Zanarini et al., 2012). À notre connaissance, aucune étude n’a décrit de façon approfondie la participation au travail des personnes présentant un TPL. Objectif : L’objectif général de cette étude vise à identifier et à décrire les obstacles, les facilitateurs de même que les solutions possibles de la participation au travail des personnes présentant un TPL selon leur point de vue et celui de leurs intervenants. Méthodologie : Une étude de cas multiples a été utilisée (Yin, 2009). Neuf cas ont été étudiés selon trois contextes socioprofessionnels de la participation au travail : A. Réintégration (personne en invalidité), B. Retour (personne en absence maladie) et C. Maintien au travail. Pour chacun des contextes, trois dyades incluant une personne avec un TPL (âgée de 18 à 55 ans) et son intervenant soutenant la participation au travail ont été interviewées. Résultats: Les résultats qualitatifs (n = 18) ont démontré que la participation au travail des personnes présentant un TPL est influencée par des facteurs individuels (p. ex., la réaction face à la pression et aux relations de travail, la régulation émotionnelle) ainsi que des facteurs liés aux acteurs et procédures des systèmes de l’assurance, organisationnel et de la santé (p. ex., la collaboration et la communication entre les acteurs, l’alliance de travail entre les acteurs et la personne présentant un TPL, les mesures d’accommodement et de soutien naturel dans le milieu de travail). Conclusions et implication clinique : Cette étude met en lumière le défi important et spécifique que représente la participation au travail pour les personnes présentant un TPL. Elle implique des facteurs personnels et environnementaux qui doivent être considérés par tous les acteurs impliqués (les utilisateurs de services, les professionnels de la santé, les assureurs et les employeurs). Les programmes de réadaptation au travail actuels devraient être bonifiés et coordonnés adéquatement avec les thérapies spécialisées afin d’aborder de manière optimale les enjeux liés à la participation au travail des personnes présentant un TPL.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cet essai est d’analyser l’applicabilité de différentes mesures réglementaires pour favoriser les changements de comportements citoyens en gestion des matières résiduelles, plus particulièrement afin de réduire l’élimination de ces matières. La prise de conscience de plus en plus généralisée à l’égard des enjeux environnementaux ne se reflète en effet pas toujours dans les comportements et actions citoyennes au quotidien et nombreux sont les facteurs qui freinent l’action environnementale. Cette situation se répercute également dans la manière dont les ménages, dans leur vie quotidienne, gèrent leurs matières résiduelles. La gestion de ces matières, dont une partie est destinée à l’élimination, soulève différents enjeux environnementaux, sociaux et économiques. Par ailleurs, parmi ce flot de matières, une quantité importante possède le potentiel d’être mise en valeur, ce qui est possible si ceux qui en ont la responsabilité à un moment ou à un autre, dont les citoyens, posent les bons gestes. Les pouvoirs publics provinciaux et municipaux peuvent utiliser trois principales approches afin de favoriser les bons comportements à cet égard. L’une d’entre elles consiste en l’utilisation de mesures législatives et réglementaires. Ces mesures, étudiées pour différents cas nord-américains, sont applicables en tenant compte des compétences provinciales et municipales. Couplées avec l’approche volontaire ou avec des instruments économiques, elles favorisent la performance des états, provinces ou municipalités qui les ont implantées sur leur territoire. Elles peuvent aussi appuyer sur certains leviers à l’action citoyenne, mais les comportements humains étant extrêmement complexes, ces mesures ne peuvent assurer, à elles seules, un changement rapide et durable des comportements. Les différentes approches, utilisées de façon complémentaire, sont plus à même d’entrainer ce changement. Pour assurer une participation maximale à la gestion des matières résiduelles, faciliter, encourager les bons comportements et favoriser l’engagement est essentiel. La réglementation à elle seule contribue peu à ces facteurs. Néanmoins, si elle s’accompagne d’un message fort, elle contribue à créer un sentiment de devoir partagé avec ses semblables et le sentiment d’une réelle adhésion et volonté politique. Pour une efficacité optimale des mesures en place, c’est l’ensemble des acteurs et générateurs de matières résiduelles qui doivent prendre leur rôle au sérieux, et non uniquement le citoyen. La mise en place de mesures favorisant des changements en amont de la problématique est aussi essentielle, bien que cet aspect ne soit pas élaboré en profondeur considérant les limites de cet essai.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’ionomycine est un ionophore produit par la bactérie gram-positive streptomyces conglobatus. Sa synthèse représente un défi, car il possède plusieurs centres chiraux dans un motif polypropylène. De plus, la grande densité d’oxygène sur celui-ci oblige l’utilisation de plusieurs protections orthogonales. Notre stratégie divise l’ionomycine en quatre fragments, trois possédant le motif polypropylène, ainsi qu’un quatrième, bis-tétrahydrofuranne. Les trois premiers sont synthétisés en utilisant une méthodologie puissante développée dans le laboratoire du Pr Spino, qui utilise l’addition d’alkylcyanocuprates sur les carbonates allyliques dérivés de la menthone. Celle-ci permet l’introduction d’une unité propylène, avec un excellent contrôle du centre chiral introduit. Cette méthode est utilisée de manière itérative, afin d’introduire plusieurs unités propylènes. De plus, notre stratégie est hautement convergente, puisque des intermédiaires des fragments plus courts servent de produit de départ pour la synthèse des fragments plus longs. Le dernier fragment, bis-tétrahydrofuranne, a été fabriqué à partir de l’acétate de géranyle, par une polycyclisation d’un diépoxyde chiral, les époxydes ayant été introduits par une époxydation de Shi. Cette synthèse, si complétée, serait la plus courte publiée, avec 24 étapes pour la séquence linéaire la plus longue (51 au total).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Québec, environ un million de résidences sont isolées des réseaux d’égouts municipaux et doivent traiter leurs eaux usées à l’aide de systèmes d’assainissement autonomes. Également nommés installations septiques, ces systèmes sont susceptibles de contaminer l’environnement lorsqu’ils sont défaillants, désuets ou non conformes. Les épisodes de cyanobactéries survenus de 2006 à 2012 dans les plans d’eau québécois ont été attribués à d’importants apports de phosphore, que libèrent notamment les installations septiques polluantes. Les municipalités, les municipalités régionales de comté et les régies intermunicipales ont des compétences et des obligations en vertu du Règlement sur l’évacuation et le traitement des eaux usées des résidences isolées et de l’article 25.1 de la Loi sur les compétences municipales portant sur une gestion adéquate des installations septiques. Une gestion optimale de celles-ci permettant de protéger l’environnement et de prévenir la contamination est possible par la mise en place d’un programme de gestion qui concerne plus spécifiquement la vidange des fosses septiques et l’inspection des systèmes. L’objectif de cet essai est de faire une analyse des éléments constituants d’un programme de gestion des installations septiques et de discuter de leur mise en oeuvre pour assurer leur fonctionnement optimal. L’essai a été rédigé de manière à présenter l’information sous forme de lignes directrices pour guider les gestionnaires de programme ainsi que les preneurs de décisions. Un programme de gestion optimal se traduit par la prise en charge de la vidange des fosses septiques d’un territoire par une des trois entités municipales qui peuvent exercer un meilleur contrôle des systèmes d’épuration autonomes par la vidange des fosses septiques et de leur inspection régulière. Les inspections prennent la forme de relevés sanitaires qui permettent de classifier les installations en fonction de leur performance et d’inspections sommaires qui visent à faire un diagnostic simple et rapide d’une installation. Plusieurs autres éléments doivent être pris en compte dans le cadre d’un programme de gestion. Soit l’application d’un règlement municipal, la fréquence et le type de vidange, le recours à des experts, la sensibilisation des propriétaires des systèmes d’épuration autonomes, une démarche d’acceptabilité sociale et l’emploi de logiciels de suivi. L’efficacité d’un programme de gestion dépendra de la rigueur avec laquelle les instances municipales appliqueront les éléments de gestion. Il est recommandé au ministère du Développement durable, de l’Environnement et de la Lutte contre les changements climatiques d’apporter des modifications au règlement provincial dans le but de le rendre plus contraignant pour les systèmes vecteurs de contamination indirecte et ceux antérieurs à 1981. Le ministère des Affaires municipales et de l’Occupation du territoire devrait offrir son soutien aux municipalités dans le cadre de leur programme de gestion en offrant de l’aide financière, de la documentation et des formations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract: Highway bridges have great values in a country because in case of any natural disaster they may serve as lines to save people’s lives. Being vulnerable under significant seismic loads, different methods can be considered to design resistant highway bridges and rehabilitate the existing ones. In this study, base isolation has been considered as one efficient method in this regards which in some cases reduces significantly the seismic load effects on the structure. By reducing the ductility demand on the structure without a notable increase of strength, the structure is designed to remain elastic under seismic loads. The problem associated with the isolated bridges, especially with elastomeric bearings, can be their excessive displacements under service and seismic loads. This can defy the purpose of using elastomeric bearings for small to medium span typical bridges where expansion joints and clearances may result in significant increase of initial and maintenance cost. Thus, supplementing the structure with dampers with some stiffness can serve as a solution which in turn, however, may increase the structure base shear. The main objective of this thesis is to provide a simplified method for the evaluation of optimal parameters for dampers in isolated bridges. Firstly, performing a parametric study, some directions are given for the use of simple isolation devices such as elastomeric bearings to rehabilitate existing bridges with high importance. Parameters like geometry of the bridge, code provisions and the type of soil on which the structure is constructed have been introduced to a typical two span bridge. It is concluded that the stiffness of the substructure, soil type and special provisions in the code can determine the employment of base isolation for retrofitting of bridges. Secondly, based on the elastic response coefficient of isolated bridges, a simplified design method of dampers for seismically isolated regular highway bridges has been presented in this study. By setting objectives for reduction of displacement and base shear variation, the required stiffness and damping of a hysteretic damper can be determined. By modelling a typical two span bridge, numerical analyses have followed to verify the effectiveness of the method. The method has been used to identify equivalent linear parameters and subsequently, nonlinear parameters of hysteretic damper for various designated scenarios of displacement and base shear requirements. Comparison of the results of the nonlinear numerical model without damper and with damper has shown that the method is sufficiently accurate. Finally, an innovative and simple hysteretic steel damper was designed. Five specimens were fabricated from two steel grades and were tested accompanying a real scale elastomeric isolator in the structural laboratory of the Université de Sherbrooke. The test procedure was to characterize the specimens by cyclic displacement controlled tests and subsequently to test them by real-time dynamic substructuring (RTDS) method. The test results were then used to establish a numerical model of the system which went through nonlinear time history analyses under several earthquakes. The outcome of the experimental and numerical showed an acceptable conformity with the simplified method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le dimensionnement basé sur la performance (DBP), dans une approche déterministe, caractérise les objectifs de performance par rapport aux niveaux de performance souhaités. Les objectifs de performance sont alors associés à l'état d'endommagement et au niveau de risque sismique établis. Malgré cette approche rationnelle, son application est encore difficile. De ce fait, des outils fiables pour la capture de l'évolution, de la distribution et de la quantification de l'endommagement sont nécessaires. De plus, tous les phénomènes liés à la non-linéarité (matériaux et déformations) doivent également être pris en considération. Ainsi, cette recherche montre comment la mécanique de l'endommagement pourrait contribuer à résoudre cette problématique avec une adaptation de la théorie du champ de compression modifiée et d'autres théories complémentaires. La formulation proposée adaptée pour des charges monotones, cycliques et de type pushover permet de considérer les effets non linéaires liés au cisaillement couplé avec les mécanismes de flexion et de charge axiale. Cette formulation est spécialement appliquée à l'analyse non linéaire des éléments structuraux en béton soumis aux effets de cisaillement non égligeables. Cette nouvelle approche mise en œuvre dans EfiCoS (programme d'éléments finis basé sur la mécanique de l'endommagement), y compris les critères de modélisation, sont également présentés ici. Des calibrations de cette nouvelle approche en comparant les prédictions avec des données expérimentales ont été réalisées pour les murs de refend en béton armé ainsi que pour des poutres et des piliers de pont où les effets de cisaillement doivent être pris en considération. Cette nouvelle version améliorée du logiciel EFiCoS a démontrée être capable d'évaluer avec précision les paramètres associés à la performance globale tels que les déplacements, la résistance du système, les effets liés à la réponse cyclique et la quantification, l'évolution et la distribution de l'endommagement. Des résultats remarquables ont également été obtenus en référence à la détection appropriée des états limites d'ingénierie tels que la fissuration, les déformations unitaires, l'éclatement de l'enrobage, l'écrasement du noyau, la plastification locale des barres d'armature et la dégradation du système, entre autres. Comme un outil pratique d'application du DBP, des relations entre les indices d'endommagement prédits et les niveaux de performance ont été obtenus et exprimés sous forme de graphiques et de tableaux. Ces graphiques ont été développés en fonction du déplacement relatif et de la ductilité de déplacement. Un tableau particulier a été développé pour relier les états limites d'ingénierie, l'endommagement, le déplacement relatif et les niveaux de performance traditionnels. Les résultats ont démontré une excellente correspondance avec les données expérimentales, faisant de la formulation proposée et de la nouvelle version d'EfiCoS des outils puissants pour l'application de la méthodologie du DBP, dans une approche déterministe.