19 resultados para Calcul informatisé fiable

em Université Laval Mémoires et thèses électroniques


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les charpentes en bois doivent inévitablement inclure des assemblages pouvant transférer les charges entre les éléments de façon adéquate pour assurer l’intégrité de la structure. Les assemblages sont une partie critique des structures en bois puisque dans la plupart des cas, ce sont ceux-ci qui permettent de dissiper l’énergie et d’obtenir un mode de rupture ductile sous les charges sismiques. Ce mode de rupture est préférable, puisqu’il donne lieu à une grande déformation avant effondrement, permettant ainsi une évacuation des occupants en toute sécurité lors de tremblement de terre. Les assemblages à petits diamètres tels que les clous, les rivets et les vis sont fréquemment utilisés dans les constructions en bois et on suppose qu’ils amènent une rupture ductile bien qu’il soit impossible pour les concepteurs de prédire exactement le mode de rupture à l’aide de la méthode de calcul actuelle. De plus, les rivets ont une application très limitée dû au fait que la méthode de calcul utilisée actuellement s’applique à des configurations, essences et types de produits de bois très spécifiques. L’objectif de ce projet est d’évaluer une nouvelle méthode de calcul proposée par des chercheurs de Nouvelle-Zélande, Zarnani et Quenneville, pour les assemblages à rivets, mais adaptable pour les assemblages de bois à attaches de petits diamètres. Elle permet au concepteur de déterminer avec précision le mode de rupture des assemblages de différentes configurations avec différents produits de bois. Plus de 70 essais sur les assemblages à rivets et à clous résistants à des charges variant de 40kN à 800kN ont été effectués dans le cadre de ce projet de recherche afin de valider l’utilisation de cette méthode avec le produit du bois lamellé-collé canadien Nordic Lam et la comparer avec celle présentement utilisée au Canada. Les modes de rupture ductile, fragile et mixte ont été prévus avec l’emphase sur le mode fragile puisque c’est celui-ci qui est le plus variable et le moins étudié. Les assemblages en bois lamellé-collé Nordic Lam étaient cloués ou rivetés selon différentes configurations variant de 18 à 128 clous ou rivets. Les résultats démontrent une bonne prédiction de la résistance et des modes de rupture des assemblages à clous et à rivets. Pour quelques configurations des assemblages à rivets, les prédictions de la nouvelle méthode sont plus élevées qu’avec la méthode actuelle. Les assemblages à clous ont démontré des ruptures de la tige de clous au niveau du plan de cisaillement lors de tous les essais effectués, ce qui ne correspond pas à un mode ductile ou fragile prévue par la méthode de calcul.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cellule utilise des nœuds d’interactions protéiques relativement stables, conservés et souvent constitués d’adaptateurs moléculaires pour gérer des signaux reçus (synthèse, sécrétion, traffic, métabolisme, division), des problèmes de sécurité et de niveaux d’énergie. Nos résultats montrent que la cellule utilise aussi des nœuds relativement petits et dynamiques où des informations propres concernant des voies métaboliques apparemment indépendantes sont évaluées. Ces informations y sont intégrées localement et une décision y est prise pour action immédiate. Cette idée est supportée par notre étude sur le récepteur de l’insuline (RI). Ce récepteur transmembranaire à activité tyrosine kinase reconnaît un signal externe (insuline circulante) et engage la signalisation de l’insuline, les réponses métaboliques et le contrôle du glucose circulant. Le RI est aussi impliqué dans l’internalisation de l’insuline et sa dégradation dans les endosomes (clairance). Il régule donc indirectement la sécrétion de l’insuline par les cellules du pancréas endocrine. La signification pathophysiologique de l’endocytose du RI ainsi que les bases moléculaires d’une telle coordination sont peu connues. Nous avons construit un réseau d’interactions du RI (IRGEN) à partir d’un protéome de fractions Golgi-endosomales (G/E) hépatiques. Nous démontrons une forte hétérogénéité fonctionnelle autour du RI avec la présence des protéines ATIC, PTPLAD1, AMPKα et ANXA2. ANXA2 est une protéine impliquée dans la biogénèse et le transport endosomal. Nos résultats identifient un site de SUMOylation régulé par l’insuline dans sa région N-terminale. ATIC est une enzyme de la voie de synthèse des purines de novo dont le substrat AICAR est un activateur de l’AMPKα. Des analyses biochimiques in vitro et in vivo nous montrent que ATIC favorise la tyrosine phosphorylation du RI par opposition fonctionnelle à PTPLAD1. Une délétion partielle d’ATIC stimule l’activation de l’AMPK dont la sous-unité AMPKα2 apparaît déterminante pour le trafic du RI. Nous démontrons que ATIC, PTPLAD1, AMPKα, AICAR et ANXA2 contrôlent l’endocytose du RI à travers le cytosquelette d’actine et le réseau de microtubules. Nous ressortons un nœud de signalisation (ATIC, PTPLAD1, AMPKα) capable de détecter les niveaux d’activation du RI, d’énergie cellulaires (rapports AMP/ATP) et aussi d’agir sur la signalisation et l’endocytose du RI. Cette proximité moléculaire expliquerait le débat sur le mécanisme primaire du diabète de type 2 (DT2), notamment entre la sensibilité à l’insuline et sa clairance. Nous avons calculé un enrichissement de 61% de variants communs du DT2 parmi les protéines fonctionnellement proches du RI incluant RI, ATIC, AMPKα, KIF5A et GLUT2. Cet enrichissement suggère que l’hétérogénéité génétique révélée par les consortiums sur études génomiques (GWAS) converge vers des mécanismes peu étudiés de biologie cellulaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse concerne la modélisation des interactions fluide-structure et les méthodes numériques qui s’y rattachent. De ce fait, la thèse est divisée en deux parties. La première partie concerne l’étude des interactions fluide-structure par la méthode des domaines fictifs. Dans cette contribution, le fluide est incompressible et laminaire et la structure est considérée rigide, qu’elle soit immobile ou en mouvement. Les outils que nous avons développés comportent la mise en oeuvre d’un algorithme fiable de résolution qui intégrera les deux domaines (fluide et solide) dans une formulation mixte. L’algorithme est basé sur des techniques de raffinement local adaptatif des maillages utilisés permettant de mieux séparer les éléments du milieu fluide de ceux du solide que ce soit en 2D ou en 3D. La seconde partie est l’étude des interactions mécaniques entre une structure flexible et un fluide incompressible. Dans cette contribution, nous proposons et analysons des méthodes numériques partitionnées pour la simulation de phénomènes d’interaction fluide-structure (IFS). Nous avons adopté à cet effet, la méthode dite «arbitrary Lagrangian-Eulerian» (ALE). La résolution fluide est effectuée itérativement à l’aide d’un schéma de type projection et la structure est modélisée par des modèles hyper élastiques en grandes déformations. Nous avons développé de nouvelles méthodes de mouvement de maillages pour aboutir à de grandes déformations de la structure. Enfin, une stratégie de complexification du problème d’IFS a été définie. La modélisation de la turbulence et des écoulements à surfaces libres ont été introduites et couplées à la résolution des équations de Navier-Stokes. Différentes simulations numériques sont présentées pour illustrer l’efficacité et la robustesse de l’algorithme. Les résultats numériques présentés attestent de la validité et l’efficacité des méthodes numériques développées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Le diabète de type 2 est une maladie évolutive débilitante et souvent mortelle qui atteint de plus en plus de personnes dans le monde. Le traitement antidiabétique non-insulinique (TADNI) notamment le traitement antidiabétique oral (TADO) est le plus fréquemment utilisé chez les adultes atteints de cette maladie. Toutefois, plusieurs de ces personnes ne prennent pas leur TADO tel que prescrit posant ainsi la problématique d’une adhésion sous-optimale. Ceci entraîne des conséquences néfastes aussi bien pour les patients que pour la société dans laquelle ils vivent. Il serait donc pertinent d’identifier des pistes de solution à cette problématique. Objectifs : Trois objectifs de recherche ont été étudiés : 1) Explorer la capacité de la théorie du comportement planifié (TCP) à prédire l’adhésion future au TADNI chez les adultes atteints de diabète de type 2, 2) Évaluer l’efficacité globale des interventions visant à améliorer l’adhésion au TADO chez les adultes atteints de diabète de type 2 et étudier l’influence des techniques de changement de comportement sur cette efficacité globale, et 3) Évaluer l’efficacité globale de l’entretien motivationnel sur l’adhésion au traitement médicamenteux chez les adultes atteints de maladie chronique et étudier l’influence des caractéristiques de cette intervention sur son efficacité globale. Méthodes : Pour l’objectif 1 : Il s’agissait d’une enquête web, suivie d’une évaluation de l’adhésion au TADNI sur une période de 30 jours, chez des adultes atteints de diabète de type 2, membres de Diabète Québec. L’enquête consistait à la complétion d’un questionnaire auto-administré incluant les variables de la TCP (intention, contrôle comportemental perçu et attitude) ainsi que d’autres variables dites «externes». Les informations relatives au calcul de l’adhésion provenaient des dossiers de pharmacie des participants transmis via la plateforme ReMed. Une régression linéaire multivariée a été utilisée pour estimer la mesure d’association entre l’intention et l’adhésion future au TADNI ainsi que l’interaction entre l’adhésion passée et l’intention. Pour répondre aux objectifs 2 et 3, deux revues systématiques et méta-analyses ont été effectuées et rapportées selon les lignes directrices de PRISMA. Un modèle à effets aléatoires a été utilisé pour estimer l’efficacité globale (g d’Hedges) des interventions et son intervalle de confiance à 95 % (IC95%) dans chacune des revues. Nous avons également quantifié l’hétérogénéité (I2 d’Higgins) entre les études, et avons fait des analyses de sous-groupe et des analyses de sensibilité. Résultats : Objectif 1 : Il y avait une interaction statistiquement significative entre l’adhésion passée et l’intention (valeur-p= 0,03). L’intention n’était pas statistiquement associée à l’adhésion future au TADNI, mais son effet était plus fort chez les non-adhérents que chez les adhérents avant l’enquête web. En revanche, l’intention était principalement prédite par le contrôle comportemental perçu à la fois chez les adhérents [β= 0,90, IC95%= (0,80; 1,00)] et chez les non-adhérents passés [β= 0,76, IC95%= (0,56; 0,97)]. Objectif 2 : L’efficacité globale des interventions sur l’adhésion au TADO était de 0,21 [IC95%= (-0,05; 0,47); I2= 82 %]. L’efficacité globale des interventions dans lesquelles les intervenants aidaient les patients et/ou les cliniciens à être proactifs dans la gestion des effets indésirables était de 0,64 [IC95%= (0,31; 0,96); I2= 56 %]. Objectif 3 : L’efficacité globale des interventions (basées sur l’entretien motivationnel) sur l’adhésion au traitement médicamenteux était de 0,12 [IC95%= (0,05; 0,20); I2= 1 %. Les interventions basées uniquement sur l’entretien motivationnel [β= 0,18, IC95%= (0,00; 0,36)] et celles dans lesquelles les intervenants ont été coachés [β= 0,47, IC95%= (0,03; 0,90)] étaient les plus efficaces. Aussi, les interventions administrées en face-à-face étaient plus efficaces que celles administrées par téléphone [β= 0,27, IC95%=(0,04; 0,50)]. Conclusion : Il existe un écart entre l’intention et l’adhésion future au TADNI, qui est partiellement expliqué par le niveau d’adhésion passée. Toutefois, il n’y avait pas assez de puissance statistique pour démontrer une association statistiquement significative entre l’intention et l’adhésion future chez les non-adhérents passés. D’un autre côté, quelques solutions au problème de l’adhésion sous-optimale au TADO ont été identifiées. En effet, le fait d’aider les patients et/ou les cliniciens à être proactifs dans la gestion des effets indésirables contribue efficacement à l’amélioration de l’adhésion au TADO chez les adultes atteints de diabète de type 2. Aussi, les interventions basées sur l’entretien motivationnel améliorent efficacement l’adhésion au traitement médicamenteux chez les adultes atteints de maladie chronique. L’entretien motivationnel pourrait donc être utilisé comme un outil clinique pour soutenir les patients dans l’autogestion de leur TADO.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La galaxie spirale barrée NGC 5430 est particulière en ce sens qu’elle présente un noeud Wolf-Rayet très lumineux et des bras asymétriques. Des spectres longue-fente le long de la barre et dans le bras déformé ainsi que des données SpIOMM couvrant l’ensemble de la galaxie ont été analysées. L’absorption stellaire sous-jacente a été soustraite des spectres longue-fente à l’aide d’un ajustement de modèles théoriques de populations stellaires fait avec le programme GANDALF. L’absorption a un impact très important sur le calcul de l’extinction ainsi que sur les différents diagnostics propres aux régions HII et aux populations stellaires jeunes. Enfin, cette étude montre que NGC 5430 comporte une composante gazeuse ionisée diffuse sur toute son étendue et qu’il est important d’en tenir compte afin d’appliquer correctement les diagnostics. Un des scénarios évolutifs proposés au terme de cette étude est que le noeud Wolf-Rayet constitue le restant d’une petite galaxie ou d’un nuage intergalactique qui serait entré en collision avec NGC 5430. Une structure englobant le noeud Wolf-Rayet se déplace à une vitesse considérablement inférieure (50 - 70 km s-1) à celle attendue à une telle distance du centre de la galaxie (200 - 220 km s-1). De plus, le noeud Wolf-Rayet semble très massif puisque l’intensité maximale du continu stellaire de cette région est semblable à celle du noyau et est de loin supérieure à celle de l’autre côté de la barre. Le nombre d’étoiles Wolf-Rayet (2150) est aussi considérable. Il n’est toutefois pas exclu que la différence de vitesses observée témoigne d’un écoulement de gaz le long de la barre, qui alimenterait la formation stellaire du noeud Wolf-Rayet ou du noyau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tordeuse des bourgeons de l’épinette (Choristoneura fumiferana, TBE) est l’insecte ravageur le plus important de la forêt boréale de l’est de l’Amérique du Nord. Depuis 2006, la région de la Côte-Nord est affectée par une épidémie de TBE et les superficies forestières infestées doublent annuellement. Des images satellitaires Landsat ont été utilisées pour cartographier la sévérité de l’épidémie avec une approche de détection de changements, en utilisant une image pré-épidémie (2004) et une image prise pendant l’épidémie (2013). Des relevés terrains de la défoliation par la TBE ont été utilisés pour développer (R2 = 0,50) une cartographie fiable (R2 de validation = 0,64) et non biaisée de la sévérité des infestations de la TBE sur une échelle continue de sévérité (0-100%) pour la région d’étude. Une analyse des facteurs environnementaux affectant la sévérité des infestations (extraite de la carte de défoliation) a démontré l’importance de la composition forestière en sapin baumier tant à l’échelle locale qu’à l’échelle du paysage. De plus, une analyse de contexte spatial montre que dans les sites peu défoliés (défoliation cumulée < 50%), le meilleur prédicteur est plutôt son abondance à l’échelle du paysage (distance > 500 m). Ces résultats suggèrent une interaction entre les échelles spatiales et temporelles lors des épidémies de TBE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il existe désormais une grande variété de lentilles panoramiques disponibles sur le marché dont certaines présentant des caractéristiques étonnantes. Faisant partie de cette dernière catégorie, les lentilles Panomorphes sont des lentilles panoramiques anamorphiques dont le profil de distorsion est fortement non-uniforme, ce qui cause la présence de zones de grandissement augmenté dans le champ de vue. Dans un contexte de robotique mobile, ces particularités peuvent être exploitées dans des systèmes stéréoscopiques pour la reconstruction 3D d’objets d’intérêt qui permettent à la fois une bonne connaissance de l’environnement, mais également l’accès à des détails plus fins en raison des zones de grandissement augmenté. Cependant, à cause de leur complexité, ces lentilles sont difficiles à calibrer et, à notre connaissance, aucune étude n’a réellement été menée à ce propos. L’objectif principal de cette thèse est la conception, l’élaboration et l’évaluation des performances de systèmes stéréoscopiques Panomorphes. Le calibrage a été effectué à l’aide d’une technique établie utilisant des cibles planes et d’une boîte à outils de calibrage dont l’usage est répandu. De plus, des techniques mathématiques nouvelles visant à rétablir la symétrie de révolution dans l’image (cercle) et à uniformiser la longueur focale (cercle uniforme) ont été développées pour voir s’il était possible d’ainsi faciliter le calibrage. Dans un premier temps, le champ de vue a été divisé en zones à l’intérieur desquelles la longueur focale instantanée varie peu et le calibrage a été effectué pour chacune d’entre elles. Puis, le calibrage général des systèmes a aussi été réalisé pour tout le champ de vue simultanément. Les résultats ont montré que la technique de calibrage par zone ne produit pas de gain significatif quant à la qualité des reconstructions 3D d’objet d’intérêt par rapport au calibrage général. Cependant, l’étude de cette nouvelle approche a permis de réaliser une évaluation des performances des systèmes stéréoscopiques Panomorphes sur tout le champ de vue et de montrer qu’il est possible d’effectuer des reconstructions 3D de qualité dans toutes les zones. De plus, la technique mathématique du cercle a produit des résultats de reconstructions 3D en général équivalents à l’utilisation des coordonnées originales. Puisqu’il existe des outils de calibrage qui, contrairement à celui utilisé dans ce travail, ne disposent que d’un seul degré de liberté sur la longueur focale, cette technique pourrait rendre possible le calibrage de lentilles Panomorphes à l’aide de ceux-ci. Finalement, certaines conclusions ont pu être dégagées quant aux facteurs déterminants influençant la qualité de la reconstruction 3D à l’aide de systèmes stéréoscopiques Panomorphes et aux caractéristiques à privilégier dans le choix des lentilles. La difficulté à calibrer les optiques Panomorphes en laboratoire a mené à l’élaboration d’une technique de calibrage virtuel utilisant un logiciel de conception optique et une boîte à outils de calibrage. Cette approche a permis d’effectuer des simulations en lien avec l’impact des conditions d’opération sur les paramètres de calibrage et avec l’effet des conditions de calibrage sur la qualité de la reconstruction. Des expérimentations de ce type sont pratiquement impossibles à réaliser en laboratoire mais représentent un intérêt certain pour les utilisateurs. Le calibrage virtuel d’une lentille traditionnelle a aussi montré que l’erreur de reprojection moyenne, couramment utilisée comme façon d’évaluer la qualité d’un calibrage, n’est pas nécessairement un indicateur fiable de la qualité de la reconstruction 3D. Il est alors nécessaire de disposer de données supplémentaires pour juger adéquatement de la qualité d’un calibrage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Système Stockage de l’Énergie par Batterie ou Batterie de Stockage d’Énergie (BSE) offre de formidables atouts dans les domaines de la production, du transport, de la distribution et de la consommation d’énergie électrique. Cette technologie est notamment considérée par plusieurs opérateurs à travers le monde entier, comme un nouveau dispositif permettant d’injecter d’importantes quantités d’énergie renouvelable d’une part et d’autre part, en tant que composante essentielle aux grands réseaux électriques. De plus, d’énormes avantages peuvent être associés au déploiement de la technologie du BSE aussi bien dans les réseaux intelligents que pour la réduction de l’émission des gaz à effet de serre, la réduction des pertes marginales, l’alimentation de certains consommateurs en source d’énergie d’urgence, l’amélioration de la gestion de l’énergie, et l’accroissement de l’efficacité énergétique dans les réseaux. Cette présente thèse comprend trois étapes à savoir : l’Étape 1 - est relative à l’utilisation de la BSE en guise de réduction des pertes électriques ; l’Étape 2 - utilise la BSE comme élément de réserve tournante en vue de l’atténuation de la vulnérabilité du réseau ; et l’Étape 3 - introduit une nouvelle méthode d’amélioration des oscillations de fréquence par modulation de la puissance réactive, et l’utilisation de la BSE pour satisfaire la réserve primaire de fréquence. La première Étape, relative à l’utilisation de la BSE en vue de la réduction des pertes, est elle-même subdivisée en deux sous-étapes dont la première est consacrée à l’allocation optimale et le seconde, à l’utilisation optimale. Dans la première sous-étape, l’Algorithme génétique NSGA-II (Non-dominated Sorting Genetic Algorithm II) a été programmé dans CASIR, le Super-Ordinateur de l’IREQ, en tant qu’algorithme évolutionniste multiobjectifs, permettant d’extraire un ensemble de solutions pour un dimensionnement optimal et un emplacement adéquat des multiple unités de BSE, tout en minimisant les pertes de puissance, et en considérant en même temps la capacité totale des puissances des unités de BSE installées comme des fonctions objectives. La première sous-étape donne une réponse satisfaisante à l’allocation et résout aussi la question de la programmation/scheduling dans l’interconnexion du Québec. Dans le but de réaliser l’objectif de la seconde sous-étape, un certain nombre de solutions ont été retenues et développées/implantées durant un intervalle de temps d’une année, tout en tenant compte des paramètres (heure, capacité, rendement/efficacité, facteur de puissance) associés aux cycles de charge et de décharge de la BSE, alors que la réduction des pertes marginales et l’efficacité énergétique constituent les principaux objectifs. Quant à la seconde Étape, un nouvel indice de vulnérabilité a été introduit, formalisé et étudié ; indice qui est bien adapté aux réseaux modernes équipés de BES. L’algorithme génétique NSGA-II est de nouveau exécuté (ré-exécuté) alors que la minimisation de l’indice de vulnérabilité proposé et l’efficacité énergétique représentent les principaux objectifs. Les résultats obtenus prouvent que l’utilisation de la BSE peut, dans certains cas, éviter des pannes majeures du réseau. La troisième Étape expose un nouveau concept d’ajout d’une inertie virtuelle aux réseaux électriques, par le procédé de modulation de la puissance réactive. Il a ensuite été présenté l’utilisation de la BSE en guise de réserve primaire de fréquence. Un modèle générique de BSE, associé à l’interconnexion du Québec, a enfin été proposé dans un environnement MATLAB. Les résultats de simulations confirment la possibilité de l’utilisation des puissances active et réactive du système de la BSE en vue de la régulation de fréquence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le rapide déclin actuel de la biodiversité est inquiétant et les activités humaines en sont la cause directe. De nombreuses aires protégées ont été mises en place pour contrer cette perte de biodiversité. Afin de maximiser leur efficacité, l’amélioration de la connectivité fonctionnelle entre elles est requise. Les changements climatiques perturbent actuellement les conditions environnementales de façon globale. C’est une menace pour la biodiversité qui n’a pas souvent été intégrée lors de la mise en place des aires protégées, jusqu’à récemment. Le mouvement des espèces, et donc la connectivité fonctionnelle du paysage, est impacté par les changements climatiques et des études ont montré qu’améliorer la connectivité fonctionnelle entre les aires protégées aiderait les espèces à faire face aux impacts des changements climatiques. Ma thèse présente une méthode pour concevoir des réseaux d’aires protégées tout en tenant compte des changements climatiques et de la connectivité fonctionnelle. Mon aire d’étude est la région de la Gaspésie au Québec (Canada). La population en voie de disparition de caribou de la Gaspésie-Atlantique (Rangifer tarandus caribou) a été utilisée comme espèce focale pour définir la connectivité fonctionnelle. Cette petite population subit un déclin continu dû à la prédation et la modification de son habitat, et les changements climatiques pourraient devenir une menace supplémentaire. J’ai d’abord construit un modèle individu-centré spatialement explicite pour expliquer et simuler le mouvement du caribou. J’ai utilisé les données VHF éparses de la population de caribou et une stratégie de modélisation patron-orienté pour paramétrer et sélectionner la meilleure hypothèse de mouvement. Mon meilleur modèle a reproduit la plupart des patrons de mouvement définis avec les données observées. Ce modèle fournit une meilleure compréhension des moteurs du mouvement du caribou de la Gaspésie-Atlantique, ainsi qu’une estimation spatiale de son utilisation du paysage dans la région. J’ai conclu que les données éparses étaient suffisantes pour ajuster un modèle individu-centré lorsqu’utilisé avec une modélisation patron-orienté. Ensuite, j’ai estimé l’impact des changements climatiques et de différentes actions de conservation sur le potentiel de mouvement du caribou. J’ai utilisé le modèle individu-centré pour simuler le mouvement du caribou dans des paysages hypothétiques représentant différents scénarios de changements climatiques et d’actions de conservation. Les actions de conservation représentaient la mise en place de nouvelles aires protégées en Gaspésie, comme définies par le scénario proposé par le gouvernement du Québec, ainsi que la restauration de routes secondaires à l’intérieur des aires protégées. Les impacts des changements climatiques sur la végétation, comme définis dans mes scénarios, ont réduit le potentiel de mouvement du caribou. La restauration des routes était capable d’atténuer ces effets négatifs, contrairement à la mise en place des nouvelles aires protégées. Enfin, j’ai présenté une méthode pour concevoir des réseaux d’aires protégées efficaces et j’ai proposé des nouvelles aires protégées à mettre en place en Gaspésie afin de protéger la biodiversité sur le long terme. J’ai créé de nombreux scénarios de réseaux d’aires protégées en étendant le réseau actuel pour protéger 12% du territoire. J’ai calculé la représentativité écologique et deux mesures de connectivité fonctionnelle sur le long terme pour chaque réseau. Les mesures de connectivité fonctionnelle représentaient l’accès général aux aires protégées pour le caribou de la Gaspésie-Atlantique ainsi que son potentiel de mouvement à l’intérieur. J’ai utilisé les estimations de potentiel de mouvement pour la période de temps actuelle ainsi que pour le futur sous différents scénarios de changements climatiques pour représenter la connectivité fonctionnelle sur le long terme. Le réseau d’aires protégées que j’ai proposé était le scénario qui maximisait le compromis entre les trois caractéristiques de réseau calculées. Dans cette thèse, j’ai expliqué et prédit le mouvement du caribou de la Gaspésie-Atlantique sous différentes conditions environnementales, notamment des paysages impactés par les changements climatiques. Ces résultats m’ont aidée à définir un réseau d’aires protégées à mettre en place en Gaspésie pour protéger le caribou au cours du temps. Je crois que cette thèse apporte de nouvelles connaissances sur le comportement de mouvement du caribou de la Gaspésie-Atlantique, ainsi que sur les actions de conservation qui peuvent être prises en Gaspésie afin d’améliorer la protection du caribou et de celle d’autres espèces. Je crois que la méthode présentée peut être applicable à d’autres écosystèmes aux caractéristiques et besoins similaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s’inscrit dans le contexte d’une optimisation industrielle et économique des éléments de structure en BFUP permettant d’en garantir la ductilité au niveau structural, tout en ajustant la quantité de fibres et en optimisant le mode de fabrication. Le modèle développé décrit explicitement la participation du renfort fibré en traction au niveau local, en enchaînant une phase de comportement écrouissante suivie d’une phase adoucissante. La loi de comportement est fonction de la densité, de l’orientation des fibres vis-à-vis des directions principales de traction, de leur élancement et d’autres paramètres matériaux usuels liés aux fibres, à la matrice cimentaire et à leur interaction. L’orientation des fibres est prise en compte à partir d’une loi de probabilité normale à une ou deux variables permettant de reproduire n’importe quelle orientation obtenue à partir d’un calcul représentatif de la mise en oeuvre du BFUP frais ou renseignée par analyse expérimentale sur prototype. Enfin, le modèle reproduit la fissuration des BFUP sur le principe des modèles de fissures diffuses et tournantes. La loi de comportement est intégrée au sein d’un logiciel de calcul de structure par éléments finis, permettant de l’utiliser comme un outil prédictif de la fiabilité et de la ductilité globale d’éléments en BFUP. Deux campagnes expérimentales ont été effectuées, une à l’Université Laval de Québec et l’autre à l’Ifsttar, Marne-la-Vallée. La première permet de valider la capacité du modèle reproduire le comportement global sous des sollicitations typiques de traction et de flexion dans des éléments structurels simples pour lesquels l’orientation préférentielle des fibres a été renseignée par tomographie. La seconde campagne expérimentale démontre les capacités du modèle dans une démarche d’optimisation, pour la fabrication de plaques nervurées relativement complexes et présentant un intérêt industriel potentiel pour lesquels différentes modalités de fabrication et des BFUP plus ou moins fibrés ont été envisagés. Le contrôle de la répartition et de l’orientation des fibres a été réalisé à partir d’essais mécaniques sur prélèvements. Les prévisions du modèle ont été confrontées au comportement structurel global et à la ductilité mis en évidence expérimentalement. Le modèle a ainsi pu être qualifié vis-à-vis des méthodes analytiques usuelles de l’ingénierie, en prenant en compte la variabilité statistique. Des pistes d’amélioration et de complément de développement ont été identifiées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une méthode optimale pour identifier les zones problématiques de drainage dans les champs de canneberges est d’un intérêt pratique pour les producteurs. Elle peut aider au développement de stratégies visant à améliorer le rendement des cultures. L’objectif de cette étude était de développer une méthodologie non intrusive de diagnostic d’un système de drainage en utilisant l’imagerie du géoradar ou Ground Penetrating Radar (GPR) ayant pour finalité de localiser les zones restrictives au drainage et de lier les scans du GPR à des propriétés du sol. Un système GPR muni d’une antenne monostatique a été utilisé pour acquérir des données dans deux champs de canneberges : un construit sur sol organique et l’autre sur sol minéral. La visualisation en trois dimensions de la stratification du champ a été possible après l’interpolation et l’analyse des faciès. La variabilité spatiale du rendement des cultures et la conductivité hydraulique saturée du sol ont été comparées aux données GPR par deux méthodes : calcul du pourcentage de différence et estimation de l’entropie. La visualisation des données couplée à leur analyse a permis de mettre en évidence la géométrie souterraine et des discontinuités importantes des champs. Les résultats montrent qu’il y a bonne corrélation entre les zones où la couche restrictive est plus superficielle et celle de faible rendement. Le niveau de similarité entre la conductivité hydraulique saturée et la profondeur de la couche restrictive confirme la présence de cette dernière. L’étape suivante a été la reconstruction de l’onde électromagnétique et son ajustement par modélisation inverse. Des informations quantitatives ont été extraites des scans : la permittivité diélectrique, la conductivité électrique et l’épaisseur des strates souterraines. Les permittivités diélectriques modélisées sont concordantes avec celles mesurées in-situ et celles de la littérature. Enfin, en permettant la caractérisation des discontinuités du sous-sol, les zones les plus pertinentes pour l’amélioration du drainage et d’irrigation ont été localisées, afin de maximiser le rendement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le contexte où les routes non revêtues sont susceptibles de subir des charges importantes, une méthode rigoureuse pour la conception de ces chaussées basée sur des principes mécanistes-empiriques et sur le comportement mécanique des sols support est souhaitable. La conception mécaniste combinée à des lois d’endommagement permet l’optimisation des structures de chaussées non revêtues ainsi que la réduction des coûts de construction et d’entretien. Le but de ce projet est donc la mise au point d’une méthode de conception mécaniste-empirique adaptée aux chaussées non revêtues. Il a été question tout d’abord de mettre au point un code de calcul pour la détermination des contraintes et des déformations dans la chaussée. Ensuite, des lois d’endommagement empiriques pour les chaussées non revêtues ont été développées. Enfin, les méthodes de calcul ont permis la création d’abaques de conception. Le développement du code de calcul a consisté en une modélisation de la chaussée par un système élastique multi-couches. La modélisation a été faite en utilisant la transformation d’Odemark et les équations de Boussinesq pour le calcul des déformations sous la charge. L’élaboration des fonctions de transfert empiriques adaptées aux chaussées non revêtues a également été effectuée. Le développement des fonctions de transfert s’est fait en deux étapes. Tout d’abord, l’établissement de valeurs seuil d’orniérage considérant des niveaux jugés raisonnables de conditions fonctionnelle et structurale de la chaussée. Ensuite, le développement de critères de déformation admissible en associant les déformations théoriques calculées à l’aide du code de calcul à l’endommagement observé sur plusieurs routes en service. Les essais ont eu lieu sur des chaussées typiques reconstituées en laboratoire et soumises à un chargement répété par simulateur de charge. Les chaussées ont été instrumentées pour mesurer la déformation au sommet du sol d’infrastructure et les taux d’endommagements ont été mesurés au cours des essais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les éléments des ponts en acier sont exposés à de sévères conditions environnementales, tel l’épandage de sels déglaçant sur les routes. Ces éléments ont besoin d’un niveau suffisant de protection contre la corrosion afin de préserver leur intégrité à long terme. Une solution efficace, devenue populaire au Canada, est la métallisation. La métallisation est un revêtement anticorrosion formé par projection thermique de métal, généralement du zinc, sur la surface à protéger. La protection fournie au substrat d’acier est assurée par une barrière physique et une protection galvanique. Pour le calcul des assemblages boulonnés antiglissement, les codes de conception, tel le code Canadien sur le calcul des ponts routiers CAN/CSA S6-14, spécifient, en fonction des conditions des surfaces de contact désirées, un coefficient de glissement à utiliser. Actuellement, ces codes ne fournissent aucun coefficient de glissement entre deux surfaces métallisées. Donc, il est pratique courante pour les fabricants de ponts en acier de masquer les surfaces de contact des joints boulonnés avant de métalliser, ce qui est très couteux pour l’industrie puisque ce travail doit se faire manuellement. Récemment, des études ont évalué la résistance au glissement à court terme d’assemblages antiglissement ayant des surfaces de contact métallisées. Les résultats ont révélé une résistance au glissement supérieure aux assemblages sur acier nu grenaillés. Dans la présente recherche, la performance en fluage des assemblages antiglissement métallisés a été caractérisée pour s’assurer qu’une résistance en glissement de Classe B soit toujours valide à long terme. L’effet de la relaxation de la force de serrage sur la charge de glissement a aussi été évalué. Les résultats ont démontré une bonne performance en fluage. Aussi, les résultats ont révélé que la relaxation de la force de serrage n’a pas d’impact significatif sur la résistance au glissement des assemblages antiglissement métallisés. Les conclusions de cette étude pourraient bien influencer de futures révisions des codes de conception et avoir un impact sur l’industrie de l’acier en Amérique du Nord.Mots clés : Assemblage boulonné antiglissement, métallisation, pont routier en acier, fluage, relaxation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: En 2015, 65 pays avaient des programmes de vaccination contre les VPH. La modélisation mathématique a joué un rôle crucial dans leur implantation. Objectifs: Nous avons réalisé une revue systématique et analysé les prédictions de modèles mathématiques de l’efficacité populationnelle de la vaccination sur la prévalence des VPH-16/18/6/11 chez les femmes et les hommes, afin d’évaluer la robustesse/variabilité des prédictions concernant l’immunité de groupe, le bénéfice ajouté par la vaccination des garçons et l’élimination potentielle des VPH-16/18/6/11. Méthodes: Nous avons cherché dans Medline/Embase afin d’identifier les modèles dynamiques simulant l’impact populationnel de la vaccination sur les infections par les VPH-16/18/6/11 chez les femmes et les hommes. Les équipes participantes ont réalisé des prédictions pour 19 simulations standardisées. Nous avons calculé la réduction relative de la prévalence (RRprev) 70 ans après l’introduction de la vaccination. Les résultats présentés correspondent à la médiane(10ème;90èmeperccentiles) des prédictions. Les cibles de la vaccination étaient les filles seulement ou les filles & garçons. Résultats: 16/19 équipes éligibles ont transmis leurs prédictions. Lorsque 40% des filles sont vaccinées, la RRprev du VPH-16 est 53%(46%;68%) chez les femmes et 36%(28%;61%) chez les hommes. Lorsque 80% des filles sont vaccinées, la RRprev est 93%(90%;100%) chez les femmes et 83%(75%;100%) chez les hommes. Vacciner aussi les garçons augmente la RRprev de 18%(13%;32%) chez les femmes et 35%(27%;39%) chez les hommes à 40% de couverture, et 7%(0%;10%) et 16%(1%;25%) à 80% de couverture. Les RRprev étaient plus élevées pour les VPH-18/6/11 (vs. VPH-16). Si 80% des filles & garçons sont vaccinés, les VPH-16/18/6/11 pourraient être éliminés. Interprétation: Même si les modèles diffèrent entre eux, les prédictions s’accordent sur: 1)immunité de groupe élevée même à basse couverture, 2)RRprev supérieures pour les VPH-18/6/11 (vs. VPH-16), 3)augmenter la couverture chez les filles a un meilleur impact qu’ajouter les garçons, 4)vacciner 80% des filles & garçons pourraient éliminer les VPH-16/18/6/11.