65 resultados para modèle dynamique
Resumo:
Cette recherche vise à décrire et à évaluer les effets perçus - par les aidantes et les aidants principaux de personnes âgées en perte sévère d'autonomie - d'une approche communautaire en maintien à domicile sur la situation d'assistance. Il s'agit d'une étude de nature qualitative, basée sur des entrevues individuelles semi-dirigées auprès de sept personnes aidantes. Le schéma d'entrevue a été élaboré à partir des éléments contenus dans le cadre théorique présentant un modèle dynamique du phénomène de l'assistance. Le matériel recueilli a donné lieu à une analyse de contenu qui respecte rigoureusement la méthodologie suggérée par L'Écuyer (1990). Les résultats révèlent que les aidantes et les aidants sont grandement préoccupés par la situation de la personne aidée, qu'ils possèdent un certain nombre de ressources pour assumer adéquatement leur rôle et que ces ressources font davantage appel à une richesse intérieure qu'à des moyens externes. De même, le soutien social semble davantage tributaire de la dynamique familiale que de l'approche communautaire bien que celle-ci en favorise la présence. Ce n'est pas le cas pour la mise à contribution des ressources de la communauté pour laquelle l'intervention selon l'approche communautaire est perçue comme étant déterminante. Les résultats de la présente recherche suggèrent, qu'en agissant positivement sur les médiateurs que sont le réseau social et les ressources, l’approche communautaire influence la perception subjective qu'ont les aidantes et les aidants des exigences de l'assistance, contribuant ainsi à diminuer leur sentiment de fardeau et à augmenter leur sentiment de satisfaction.
Resumo:
Le Spyder conçu par BRP est un véhicule complexe, original et peu connu du grand public à travers le monde. Par conséquent, on souhaite développer un outil facile d’accès pour la découverte, la formation au pilotage et l’aide à la conception du roadster. Le sujet de ce projet de maîtrise est le développement du modèle dynamique du véhicule et l’intégration à une plateforme de simulation existante. Pour y parvenir, on élabore un modèle réaliste du véhicule sous deux versions, sport et tourisme. Après avoir recherché les différents paramètres et caractéristiques du véhicule, on se concentre d’abord sur un modèle simple puis sur un modèle plus complexe comportant différents modules, comme la motorisation et les aides à la conduite. En vue de valider le modèle, on utilisera les résultats de tests et des mesures expérimentales. Après validation, le modèle doit être intégré à la nouvelle plateforme de simulation. Le logiciel, développé en langage C++, est élaboré à partir de la plateforme de base. Des modèles 3D détaillés du Spyder offrent un rendu graphique réaliste pour une meilleure immersion. Le modèle est capable de répondre en temps réel et de manière réaliste et précise sous le contrôle de l’utilisateur. On a donc un outil polyvalent à objectifs multiples : faire connaître le véhicule, aider l’ingénieur dans l’étude du véhicule et former les futurs pilotes de manière plus efficace et moins coûteuse. L’outil de simulation peut être également un moyen d’évaluer facilement des paramètres dont l’appréciation est subjective comme la signature sonore du véhicule.
Resumo:
L’entreprise Rio Tinto effectue la gestion du système hydrique de la rivière Nechako, situé en Colombie-Britannique (Canada), à partir de règles de gestion optimisées à l’aide d’un algorithme de programmation dynamique stochastique (PDS) et de scénarios d’apports historiques. Les récents développements en recherche opérationnelle tendent à démontrer que la mise à jour des règles de gestion en mode prévisionnel permet d’améliorer la performance des règles de gestion lorsque des prévisions d’ensemble sont utilisées pour mieux cerner les incertitudes associées aux apports à venir. La modélisation hydrologique permet de suivre l’évolution d’un ensemble de processus hydrologiques qui varient dans le temps et dans l’espace (réserve de neige, humidité du sol, etc.). L’utilisation de modèles hydrologiques, en plus d’offrir la possibilité de construire des prévisions d’ensemble qui tiennent compte de l’ensemble des processus simulés, permet de suivre l’évolution de variables d’état qui peuvent être utilisées à même l’algorithme d’optimisation pour construire les probabilités de transition utiles à l’évaluation de la valeur des décisions futures. À partir d’un banc d’essais numériques dans lequel le comportement du bassin versant de la rivière Nechako est simulé à l’aide du modèle hydrologique CEQUEAU, les résultats du présent projet démontrent que la mise à jour des règles avec l’algorithme de PDS en mode prévisionnel permet une amélioration de la gestion du réservoir Nechako lorsque comparée aux règles optimisées avec l’algorithme en mode historique. Le mode prévisionnel utilisant une variable hydrologique combinant un modèle autorégressif d’ordre 5 (AR5) et la valeur maximale de l’équivalent en eau de la neige (ÉENM) a permis de réduire les déversements non-productifs et les inondations tout en maintenant des productions similaires à celles obtenues à l’aide de règles optimisées en mode historique utilisant l’ÉENM comme variable hydrologique. De plus, les résultats du projet démontrent que l’utilisation de prévisions hydrologiques d’ensemble en mode historique pour construire une variable hydrologique permettant d’émettre une prévision du volume d’apport médian pour les huit mois à venir (PVAM) ne permettait pas d’obtenir des résultats de gestion supérieurs à ceux obtenus avec la variable d’ÉENM.
Resumo:
Les protéines existent sous différents états fonctionnels régulés de façon précise par leur environnement afin de maintenir l‘homéostasie de la cellule et de l‘organisme vivant. La prévalence de ces états protéiques est dictée par leur énergie libre de Gibbs alors que la vitesse de transition entre ces états biologiquement pertinents est déterminée par le paysage d‘énergie libre. Ces paramètres sont particulièrement intéressants dans un contexte thérapeutique et biotechnologique, où leur perturbation par la modulation de la séquence protéique par des mutations affecte leur fonction. Bien que des nouvelles approches expérimentales permettent d‘étudier l‘effet de mutations en haut débit pour une protéine, ces méthodes sont laborieuses et ne couvrent qu‘une fraction de l‘ensemble des structures primaires d‘intérêt. L‘utilisation de modèles bio-informatiques permet de tester et générer in silico différentes hypothèses afin d‘orienter les approches expérimentales. Cependant, ces méthodes basées sur la structure se concentrent principalement sur la prédiction de l‘enthalpie d‘un état, alors que plusieurs évidences expérimentales ont démontré l‘importance de la contribution de l‘entropie. De plus, ces approches ignorent l‘importance de l‘espace conformationnel protéique dicté par le paysage énergétique cruciale à son fonctionnement. Une analyse des modes normaux peut être effectuée afin d‘explorer cet espace par l‘approximation que la protéine est dans une conformation d‘équilibre où chaque acide aminé est représenté par une masse régie par un potentiel harmonique. Les approches actuelles ignorent l‘identité des résidus et ne peuvent prédire l‘effet de mutations sur les propriétés dynamiques. Nous avons développé un nouveau modèle appelé ENCoM qui pallie à cette lacune en intégrant de l‘information physique et spécifique sur les contacts entre les atomes des chaînes latérales. Cet ajout permet une meilleure description de changements conformationnels d‘enzymes, la prédiction de l‘effet d‘une mutation allostérique dans la protéine DHFR et également la prédiction de l‘effet de mutations sur la stabilité protéique par une valeur entropique. Comparativement à des approches spécifiquement développées pour cette application, ENCoM est plus constant et prédit mieux l‘effet de mutations stabilisantes. Notre approche a également été en mesure de capturer la pression évolutive qui confère aux protéines d‘organismes thermophiles une thermorésistance accrue.
Resumo:
Résumé : En imagerie médicale, il est courant d’associer plusieurs modalités afin de tirer profit des renseignements complémentaires qu’elles fournissent. Par exemple, la tomographie d’émission par positrons (TEP) peut être combinée à l’imagerie par résonance magnétique (IRM) pour obtenir à la fois des renseignements sur les processus biologiques et sur l’anatomie du sujet. Le but de ce projet est d’explorer les synergies entre l’IRM et la TEP dans le cadre d’analyses pharmacocinétiques. Plus spécifiquement, d’exploiter la haute résolution spatiale et les renseignements sur la perfusion et la perméabilité vasculaire fournis par l’IRM dynamique avec agent de contraste afin de mieux évaluer ces mêmes paramètres pour un radiotraceur TEP injecté peu de temps après. L’évaluation précise des paramètres de perfusion du radiotraceur devrait permettre de mieux quantifier le métabolisme et de distinguer l’accumulation spécifique et non spécifique. Les travaux ont porté sur deux radiotraceurs de TEP (18F-fluorodésoxyglucose [FDG] et 18F-fluoroéthyle-tyrosine [FET]) ainsi que sur un agent de contraste d’IRM (acide gadopentétique [Gd DTPA]) dans un modèle de glioblastome chez le rat. Les images ont été acquises séquentiellement, en IRM, puis en TEP, et des prélèvements sanguins ont été effectués afin d’obtenir une fonction d’entrée artérielle (AIF) pour chaque molécule. Par la suite, les images obtenues avec chaque modalité ont été recalées et l’analyse pharmacocinétique a été effectuée par régions d’intérêt (ROI) et par voxel. Pour le FDG, un modèle irréversible à 3 compartiments (2 tissus) a été utilisé conformément à la littérature. Pour la FET, il a été déterminé qu’un modèle irréversible à 2 tissus pouvait être appliqué au cerveau et à la tumeur, alors qu’un modèle réversible à 2 tissus convenait aux muscles. La possibilité d’effectuer une conversion d’AIF (sanguine ou dérivée de l’image) entre le Gd DTPA et la FET, ou vice versa, a aussi été étudiée et s’est avérée faisable dans le cas des AIF sanguines obtenues à partir de l’artère caudale, comme c’est le cas pour le FDG. Finalement, l’analyse pharmacocinétique combinée IRM et TEP a relevé un lien entre la perfusion du Gd-DTPA et du FDG, ou de la FET, pour les muscles, mais elle a démontré des disparités importantes dans la tumeur. Ces résultats soulignent la complexité du microenvironnement tumoral (p. ex. coexistence de divers modes de transport pour une même molécule) et les nombreux défis rencontrées lors de sa caractérisation chez le petit animal.
Resumo:
Dans un premier chapitre, nous décrivons un modèle de formation d’image affichée sur un écran en revenant sur les concepts que sont la lumière, la géométrie et l’optique. Nous détaillons ensuite les différentes techniques d’affichage stéréoscopique utilisées à l’heure actuelle, en parcourant la stéréoscopie, l’autostéréoscopie et plus particulièrement le principe d’imagerie intégrale. Le deuxième chapitre introduit un nouveau modèle de formation d’image stéréoscopique. Ce dernier nous permet d’observer deux images d’une paire stéréoscopique soumises à des éventuelles transformations et à l’effet d’une ou de plusieurs optiques particulières, pour reproduire la perception de trois dimensions. Nous abordons l’aspect unificateur de ce modèle. En effet il permet de décrire et d’expliquer de nombreuses techniques d’affichage stéréoscopique existantes. Enfin, dans un troisième chapitre nous discutons d’une méthode particulière de création de paires d’images stéréoscopiques à l’aide d’un champ lumineux.
Resumo:
Au Québec, les écoles sont situées dans une région où l’aléa sismique est considéré modéré à élevé. La majorité de ces écoles ont été construites avant les années 70 et comportent de la maçonnerie non armée (MNA) qui est un matériau à ductilité faible. Au cours des séismes passés notamment celui du Saguenay en 1988, il semble que les structures comportant de la MNA constituent le type de structure le plus dangereux vis-à-vis du séisme. La performance sismique de ces écoles est alors mise en question d’autant plus que la plupart ont été construites avant l’introduction des normes parasismiques. Ce projet de recherche traite de la vulnérabilité sismique des écoles comportant de la MNA et s’inscrit à la suite d’un projet d’élaboration d’une procédure de classification des écoles dans l’Est du Canada. Il découle d’une initiative du Réseau Canadien pour la Recherche Parasismique (RCRP) qui vise des procédures d’analyse de ces bâtiments en vue d’un programme de réhabilitation d’écoles, lancé par le Ministère de l’Éducation, des Loisirs et du Sport (MELS). Une procédure à trois niveaux pour l’évaluation de la vulnérabilité sismique des bâtiments dans l’Est du Canada a été élaborée par différents chercheurs de l’Université de Sherbrooke, de l’École de Technologie Supérieure et de l’Université McGill [Nollet et al., 2012]. Partant des conclusions de cette étude et d’une revue de littérature, les efforts de la recherche développeront un niveau d’évaluation sismique complète des écoles types au Québec comportant de la MNA comme murs de remplissage. Les objectifs seront donc de proposer un modèle adéquat du comportement sismique de la MNA issue de la littérature, étudier l’influence de la non linéarité de la MNA sur la réponse dynamique de ces écoles ainsi que l’influence de l’irrégularité en plan sur la réponse dynamique de ces écoles. La démarche comprend le développement des modèles Opensees [Mazzoni et al., 2004] et la modélisation des écoles génériques sur le logiciel OpenSees (l’un des défi majeur du projet), la validation des modèles à partir de valeurs empirique et expérimentale et enfin les analyses modales et temporelles.
Resumo:
Les étudiants de première année de licence de l’Université Catholique de Lille (UCL) constituent une population à part. D’une part, ils sont inscrits dans l’enseignement supérieur privé associatif, qui constitue une part minoritaire, mais croissante du paysage de l’enseignement supérieur français. D’autre part, leurs caractéristiques socio-économiques et leurs antécédents scolaires ne semblent pas suffisants pour expliquer leur taux de réussite plus élevé que l’ensemble des étudiants de première année de licence. Or, dans les pays occidentaux, les taux d’échecs observés en première année d’université ont généré une large littérature scientifique cherchant à mieux comprendre quelles caractéristiques étaient en mesure d’expliquer l’échec ou la réussite étudiante. Parmi les pistes proposées, l’étude des caractéristiques motivationnelles semble prometteuse. Nous nous sommes donc demandé quelles étaient les caractéristiques motivationnelles, que nous avons appelées profils, des étudiants de première année de licence de l’UCL. Pour répondre à cette question, nous avons essayé de savoir si les activités pédagogiques proposées habituellement en première année pouvaient se révéler un élément déterminant au niveau de la motivation. Le contexte de l’UCL, misant fortement sur l’innovation pédagogique pour l’avenir, rend cet éclairage particulièrement intéressant pour les responsables pédagogiques et les enseignants. Mais la particularité du système d’accès au supérieur et la spécificité de l’enseignement supérieur privé associatif nous ont également amené à questionner la motivation à effectuer des études de ces étudiants. En effet, il est difficile de s’imaginer mesurer la motivation dans une activité pédagogique sans tenir compte des motivations à s’engager dans les études de manière générale. Nous nous sommes appuyés sur un cadre de référence original empruntant à la fois à la théorie de l’autodétermination (Deci et Ryan, 1985) et de la dynamique motivationnelle au sein d’une activité pédagogique (Viau, 2009). Si l’objectif général est d’établir les profils motivationnels des étudiants de première année de licence de l’UCL, nous nous sommes demandé quelles caractéristiques personnelles (âge, sexe, origine sociale, antécédents scolaires, discipline, type d’établissement, choix et type de sélection) significatives influencent les profils motivationnels. Les résultats de l’étude portant sur 457 étudiants montrent une motivation très élevée envers les études, soutenue par des motifs à la fois intrinsèques et extrinsèques, pourtant opposés selon la théorie de l’autodétermination. Les étudiants montrent une motivation élevée envers les travaux dirigés qui allient théorie et pratique mais aussi envers les activités pédagogiques avec lesquelles ils sont familiers. Les étudiants de faculté sont motivés envers les cours magistraux et moins envers les projets, ce qui est l’inverse des étudiants en école. Notons que le résultat le plus original provient de l’étude des caractéristiques faisant varier les profils. En effet, aucune des caractéristiques personnelles étudiées ne fait varier les profils à l’exception des disciplines et du type d’établissement (école ou faculté) où sont observées des variations statistiques. En outre, au sein d’une même discipline, les différences existent en fonction du type d’établissement. Autrement dit, des facteurs contextuels propres aux établissements ou à la culture disciplinaire sont à l’origine des différents profils motivationnels. Ces conclusions renforcent le rôle de l’institution et des facteurs environnementaux propres aux établissements dans les niveaux de motivation des étudiants. Notre recherche donne également des données importantes aux acteurs de terrain en contact direct avec les étudiants.
Resumo:
Parmi les méthodes les plus utilisées en inspection embarquée des structures (Structural Health Monitoring ou SHM), les techniques d’imagerie basées sur un modèle de propagation sont de plus en plus répandues. Pour les techniques d'imagerie basées sur un modèle de propagation, bien que ces techniques montent en popularité, la complexité des matériaux composites réduit grandement leur performance en détection d'endommagements comparativement aux démonstrations précédentes de leur potentiel sur des matériaux isotropes. Cette limitation dépend entre autres des hypothèses simplificatrices souvent posées dans les modèles utilisés et peut entraîner une augmentation des faux positifs et une réduction de la capacité de ces techniques à détecter des endommagements. Afin de permettre aux techniques d'imagerie basées sur un modèle d'offrir une performance équivalente à celle obtenue précédemment sur les structures métalliques, il est nécessaire d'exploiter des modèles de propagation considérant la dynamique complexe des ondes dans ce type de structures. Cette thèse présente les travaux effectués sur la modélisation de la propagation des ondes guidées dans les matériaux composites. En première partie, une amélioration simple des modèles de génération et de propagation est proposée afin de permettre de mieux reconstruire les signaux générés et propagés sur une structure composite. Par la suite, le potentiel de la technique « Excitelet » à détecter et positionner adéquatement un ou plusieurs endommagements sur un matériau, peu importe son empilement (d’un composite unidirectionnel à un matériau isotrope), est démontré tant pour le mode A[indice inférieur 0] que le mode S[indice inférieur 0]. Les résultats obtenus numériquement et expérimentalement démontrent une corrélation directe entre l'amélioration des modèles mathématiques derrière les techniques d'imagerie et la robustesse des techniques pour ce qui est de la précision sur le positionnement du dommage et du niveau de corrélation obtenu. Parmi les améliorations à la technique d'imagerie « Excitelet » proposées, une amélioration significative des résultats en imagerie est démontrée en considérant la distribution de cisaillement plan sous l’émetteur, ce qui est une nouveauté par rapport aux travaux de recherche précédents en imagerie. La performance de la technique d'imagerie via la modélisation de la propagation d'ondes guidées dans les laminés multicouches transverses isotropes est par la suite démontrée. Les équations de l'élasticité en 3D sont utilisées pour bien modéliser le comportement dispersif des ondes dans les composites, et cette formulation est par la suite implantée dans la technique d'imagerie « Excitelet ». Les résultats démontrent que l'utilisation d'une formulation mathématique plus avancée permet d'augmenter la précision quant au positionnement des dommages et à l'amplitude de la corrélation obtenue lors de la détection d'un dommage. Une analyse exhaustive de la sensibilité de la technique d’imagerie et de la propagation d’ondes aux conditions environnementales et à la présence de revêtement sur la structure est présentée en dernière partie. Les résultats obtenus montrent que la considération de la propagation complexe dans la formulation d’imagerie ainsi que la caractérisation des propriétés mécaniques « a priori » de l’imagerie améliorent la robustesse de la technique et confèrent à la technique « Excitelet » la capacité de détecter et positionner précisément un endommagement, peu importe le type de structure.
Resumo:
Depuis 2010, le modèle Réponse à l'intervention (RàI) est de plus en plus prescrit dans les cadres de référence en orthopédagogie des commissions scolaires du Québec (Boudreau et Allard, 2015). D'abord, pour identifier les élèves susceptibles de présenter un trouble d'apprentissage et, parallèlement, pour organiser des services adaptés aux besoins des élèves en difficulté d'apprentissage incluant ceux intégrés à la classe ordinaire. Ce modèle, validé par la recherche s’opérationnalise, entre autres, par l'approche résolution de problème et celle par protocole standardisé (Fuchs et Fuchs, 2007; Marshall, 2010). Ces approches permettent de préciser la pratique pédagogique et orthopédagogique en déterminant puis hiérarchisant les modalités d'intervention et d'évaluation auprès des élèves ciblés en intensification. Or, ce modèle ne définit pas, à l’heure actuelle, la structure collaborative devant être déployée entre l’orthopédagogue et l’enseignant, deux acteurs importants impliqués dans ce modèle d’identification des troubles d'apprentissage (Barnes et Harlacher, 2008), ce qui nous amène à nous intéresser aux pratiques de collaboration entre l'enseignant et l'orthopédagogue dans un contexte d'implantation du modèle RàI. Dans le cadre de ce mémoire, nous visons ainsi à mieux documenter et définir les pratiques de collaboration entre l'enseignant et l'orthopédagogue dans un tel contexte. Pour ce faire, des entretiens semi-dirigés ont été menés afin d'identifier les pratiques de collaboration utilisées, et dégager celles considérées comme exclusives, communes ou conflictuelles. Au total, 30 thèmes ont été identifiés et 85 pratiques sont réparties dans les différents niveaux du modèle RàI.
Resumo:
Le caribou de Peary est l’unité désignable du caribou la plus septentrionale ; sa population a chuté d’environ 70% au cours des trois dernières générations. Le Comité sur la situation des espèces en péril au Canada (COSEPAC) identifie les conditions difficiles d’accès à la nourriture à travers le couvert nival comme le facteur le plus influant contribuant à ce déclin. Cette étude se concentre sur l’établissement d’un outil spatial de caractérisation des conditions nivales pour l’accès à la nourriture du caribou de Peary dans le Nord canadien, utilisant des simulations du couvert nival générées avec le logiciel suisse SNOWPACK à partir des données du Modèle Régional Climatique Canadien. Le cycle de vie du caribou de Peary a été divisé en trois périodes critiques : la période de mise bas et de migration printanière (avril – juin), celle d’abondance de nourriture et de rut (juillet – octobre) et celle de migration automnale et de survie des jeunes caribous (novembre – mars). Les conditions nivales sont analysées et les simulations du couvert nival comparées aux comptes insulaires de caribous de Peary pour identifier un paramètre nival qui agirait comme prédicateur des conditions d’accès à la nourriture et expliquerait les fluctuations des comptes de caribous. Cette analyse conclue que ces comptes sont affectés par des densités de neige au-dessus de 300 kg/m³. Un outil logiciel cartographiant à une échelle régionale (dans l’archipel arctique canadien) les conditions d’accès à la nourriture possiblement favorables et non favorables basées sur la neige est proposé. Des exemples spécifiques de sorties sont données pour montrer l’utilité de l’outil, en cartographiant les pixels selon l’épaisseur cumulée de neige au-dessus de densités de 300 kg/m³, où des épaisseurs cumulées au-dessus de 7000 cm par hiver sont considérées comme non favorables pour le caribou de Peary.
Resumo:
Les services rendus par la nature sont ébranlés par les activités économiques humaines, ce qui invite l’économie à changer de paradigme. L’économie circulaire dont découle la symbiose industrielle, comporte des espoirs de transition. Dans le cadre de l’essai, c’est la symbiose qui dévoilera ses propres pistes de mutation, par son modèle d’affaires. Celui-ci permet de détecter et de créer de la valeur dans les entreprises. Il existe plusieurs angles pour dévoiler le modèle d’affaires, mais c’est la perspective du système d’activité qui est sélectionnée. L’objectif principal de l’essai est d’explorer cette perspective, en l’appliquant sur une symbiose industrielle québécoise, soit celle du Centre local de développement de Brome-Missisquoi. Cette perspective est systémique et s’avère pertinente dans le contexte d’une symbiose. Puisque le modèle d’affaires permet de constater comment s’organise la symbiose pour créer de la valeur, le premier sous objectif est d’analyser celle-ci. En découle une étude comparative soulevant ses facteurs de succès et d’entrave. Les expériences de symbioses sont multiples et différenciées, mais certaines constantes peuvent être dégagées. Puisque son développement prend du temps, la mobilisation des acteurs comporte des défis. L’analyse de la rentabilité de la symbiose et de sa gouvernance peut outiller les intervenants pour faciliter son déploiement. Les retombées de la symbiose industrielle de Brome-Missisquoi sont positives. Afin de maintenir l’intérêt des participants et d’impulser la symbiose vers la pérennité, des recommandations sont formulées. Il est recommandé d’augmenter la diversité de ses parties prenantes de la symbiose, encadré par une réflexion stratégique co construite. La résilience de la symbiose en sera renforcie. Il importe de revenir sur la vision des membres et de développer leur compréhension du concept. Enfin, il est recommandé d’améliorer l’ancrage de la symbiose sur son territoire, en se greffant aux organisations déjà existantes, mais actuellement absentes du membariat. Des témoignages soulèvent des changements de pratiques notables chez certaines parties prenantes, ce qui semble indiquer que les symbioses industrielles favorisent le changement de paradigme.
Resumo:
Au Canada, les avalanches constituent le géorisque le plus dangereux en période hivernale. On enregistre annuellement d’importants coûts économiques et sociaux associés aux impacts de ce phénomène naturel. Par exemple, la fermeture de routes en cas de risque d’avalanche est estimée à 5 millions de dollars (Jamieson et Stethem, 2002). La prévision des avalanches est, de nos jours, la meilleure méthode afin d’éviter ces coûts. Au Canada, cela s’effectue de façon ponctuelle à l’aide de méthodes manuelles tel que le test de compression (CAA, 2014). Les modèles de simulation du couvert neigeux permettent d’étendre les prévisions à l’ensemble d’une région et ainsi, atteindre certains lieux difficilement accessibles pour l’homme. On tente actuellement d’adapter le modèle SNOWPACK aux conditions canadiennes et plusieurs études ont eu pour but d’améliorer les simulations produites par celui-ci. Cette étude vise donc également l’amélioration des simulations par l’intégration des paramètres de végétation. L’objectif de l’étude est de paramétrer, pour la première fois, le module de végétation de SNOWPACK avec les données récoltées dans la réserve faunique des Chic-Chocs. Nous pourrons ainsi évaluer l’impact de la végétation sur la modélisation du couvert nival. Nous avons donc, lors de sorties de terrain, recueillis les données de neige et de végétation au niveau de quatre sites d’étude. Nous avons par la suite réalisé les simulations avec SNOWPACK et comparer les résultats des simulations avec et sans végétation aux données de terrain. L’étude nous révèle que le modèle diminue la quantité de neige au sol ainsi que la densité du manteau neigeux en présence de végétation. De plus nous avons pu constater que l’inclusion du module de végétation permet d’obtenir des données qui se rapprochent davantage de ce qui a été observé sur le terrain.
Resumo:
Abstract: Highway bridges have great values in a country because in case of any natural disaster they may serve as lines to save people’s lives. Being vulnerable under significant seismic loads, different methods can be considered to design resistant highway bridges and rehabilitate the existing ones. In this study, base isolation has been considered as one efficient method in this regards which in some cases reduces significantly the seismic load effects on the structure. By reducing the ductility demand on the structure without a notable increase of strength, the structure is designed to remain elastic under seismic loads. The problem associated with the isolated bridges, especially with elastomeric bearings, can be their excessive displacements under service and seismic loads. This can defy the purpose of using elastomeric bearings for small to medium span typical bridges where expansion joints and clearances may result in significant increase of initial and maintenance cost. Thus, supplementing the structure with dampers with some stiffness can serve as a solution which in turn, however, may increase the structure base shear. The main objective of this thesis is to provide a simplified method for the evaluation of optimal parameters for dampers in isolated bridges. Firstly, performing a parametric study, some directions are given for the use of simple isolation devices such as elastomeric bearings to rehabilitate existing bridges with high importance. Parameters like geometry of the bridge, code provisions and the type of soil on which the structure is constructed have been introduced to a typical two span bridge. It is concluded that the stiffness of the substructure, soil type and special provisions in the code can determine the employment of base isolation for retrofitting of bridges. Secondly, based on the elastic response coefficient of isolated bridges, a simplified design method of dampers for seismically isolated regular highway bridges has been presented in this study. By setting objectives for reduction of displacement and base shear variation, the required stiffness and damping of a hysteretic damper can be determined. By modelling a typical two span bridge, numerical analyses have followed to verify the effectiveness of the method. The method has been used to identify equivalent linear parameters and subsequently, nonlinear parameters of hysteretic damper for various designated scenarios of displacement and base shear requirements. Comparison of the results of the nonlinear numerical model without damper and with damper has shown that the method is sufficiently accurate. Finally, an innovative and simple hysteretic steel damper was designed. Five specimens were fabricated from two steel grades and were tested accompanying a real scale elastomeric isolator in the structural laboratory of the Université de Sherbrooke. The test procedure was to characterize the specimens by cyclic displacement controlled tests and subsequently to test them by real-time dynamic substructuring (RTDS) method. The test results were then used to establish a numerical model of the system which went through nonlinear time history analyses under several earthquakes. The outcome of the experimental and numerical showed an acceptable conformity with the simplified method.
Resumo:
Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.