688 resultados para résistance
Resumo:
Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.
Resumo:
Cette thèse propose une lecture anthropologique de la consommation d’alcool. Elle met de l’avant une approche novatrice qui repose sur le concept de « métaphysique du quasi- arrêt ». Cette approche a été développée à la suite d’une recherche ethnographique réalisée dans la région de la Beauce, au Québec. Au lieu de considérer la consommation d’alcool comme un problème social ou de santé publique, j’ai cherché à comprendre comment et pourquoi l’on boit, en Beauce, en me laissant guider par les buveurs et les buveuses côtoyés sur place. En prenant part à de nombreuses soirées où la bière est omniprésente, que ce soit dans les garages, les bars ou l’aréna local, je me suis laissé affecter par les sensations ressenties et par les paroles prononcées lorsque les buveurs éprouvent ce qu’ils appellent le « feeling du moment ». En prenant du recul, j’ai constaté que les Beaucerons qui boivent ont développé des stratégies défensives pour échapper à la tentative de contrôle de la société québécoise sur leurs conduites alcooliques et, plus largement, sur l’alcoolisme. En effet, dans la perspective de la « métaphysique du quasi-arrêt », la quantité de verres consommés n’a d’importance qu’eu égard au « feeling du moment »; les normes culturelles ou médicales liées à la consommation d’alcool ne tiennent pas, et c’est pourquoi cette approche permet d’expliquer des discours et des pratiques liés à la consommation d’alcool qui, à première vue, semblent paradoxaux, voire complètement absurdes. Pour bien montrer en quoi l’approche mise de l’avant se distingue, mais surtout pour expliquer comment la consommation excessive d’alcool en est venue à représenter, en anthropologie comme dans d’autres disciplines, une pratique problématique qu’il faut comprendre pour la combattre, une première partie de la thèse consiste en une mise en perspective historique de l’alcoolisme en tant que concept scientifique et enjeu de société. Y sont passées en revue les approches et concepts développés, depuis la fin du XVIIe siècle, par des médecins, des psychologues, des économistes, des sociologues et des anthropologues euro-américains pour aborder ce genre de consommation. Je suggère que ces scientifiques mènent, depuis plus de deux siècles, une véritable croisade contre les « buveurs excessifs ». Collaborant avec l’État, les mouvements de tempérance et les entreprises privées, ils ont contribué à contenir les abus d’alcool en Occident. Dans la seconde partie de la thèse, l’ethnographie sert de support au déploiement de la perspective théorique développée à l’issue du travail de terrain. Il s’agit d’analyser comment les buveurs d’alcool vivent et font durer le « feeling du moment » au cours du boire social. Sur le terrain, j’ai découvert que les buveurs d’alcool ont inventé onze stratégies pour vivre et faire durer le « feeling du moment » en consommant de l’alcool avec les autres. Ces stratégies constituent une forme de résistance face à une société qui cherche à contrôler les conduites alcooliques.
Resumo:
Le dimensionnement basé sur la performance (DBP), dans une approche déterministe, caractérise les objectifs de performance par rapport aux niveaux de performance souhaités. Les objectifs de performance sont alors associés à l'état d'endommagement et au niveau de risque sismique établis. Malgré cette approche rationnelle, son application est encore difficile. De ce fait, des outils fiables pour la capture de l'évolution, de la distribution et de la quantification de l'endommagement sont nécessaires. De plus, tous les phénomènes liés à la non-linéarité (matériaux et déformations) doivent également être pris en considération. Ainsi, cette recherche montre comment la mécanique de l'endommagement pourrait contribuer à résoudre cette problématique avec une adaptation de la théorie du champ de compression modifiée et d'autres théories complémentaires. La formulation proposée adaptée pour des charges monotones, cycliques et de type pushover permet de considérer les effets non linéaires liés au cisaillement couplé avec les mécanismes de flexion et de charge axiale. Cette formulation est spécialement appliquée à l'analyse non linéaire des éléments structuraux en béton soumis aux effets de cisaillement non égligeables. Cette nouvelle approche mise en œuvre dans EfiCoS (programme d'éléments finis basé sur la mécanique de l'endommagement), y compris les critères de modélisation, sont également présentés ici. Des calibrations de cette nouvelle approche en comparant les prédictions avec des données expérimentales ont été réalisées pour les murs de refend en béton armé ainsi que pour des poutres et des piliers de pont où les effets de cisaillement doivent être pris en considération. Cette nouvelle version améliorée du logiciel EFiCoS a démontrée être capable d'évaluer avec précision les paramètres associés à la performance globale tels que les déplacements, la résistance du système, les effets liés à la réponse cyclique et la quantification, l'évolution et la distribution de l'endommagement. Des résultats remarquables ont également été obtenus en référence à la détection appropriée des états limites d'ingénierie tels que la fissuration, les déformations unitaires, l'éclatement de l'enrobage, l'écrasement du noyau, la plastification locale des barres d'armature et la dégradation du système, entre autres. Comme un outil pratique d'application du DBP, des relations entre les indices d'endommagement prédits et les niveaux de performance ont été obtenus et exprimés sous forme de graphiques et de tableaux. Ces graphiques ont été développés en fonction du déplacement relatif et de la ductilité de déplacement. Un tableau particulier a été développé pour relier les états limites d'ingénierie, l'endommagement, le déplacement relatif et les niveaux de performance traditionnels. Les résultats ont démontré une excellente correspondance avec les données expérimentales, faisant de la formulation proposée et de la nouvelle version d'EfiCoS des outils puissants pour l'application de la méthodologie du DBP, dans une approche déterministe.
Resumo:
Dans le contexte de la production d’éthanol cellulosique, la cellulose doit être hydrolysée par voie chimique ou enzymatique. Dans ce procédé d’hydrolyse, la partie cristalline de la cellulose est plus difficilement fragmentable, ce qui entraîne des coûts supplémentaires dues au temps de traitement plus élevé ou à la quantité supplémentaire de produits chimiques nécessaires. Dans l’optique de réduire les coûts de l’hydrolyse tout en recherchant une voie pour valoriser la cellulose cristalline, l’idée de fabriquer des composites polymères/cellulose est attrayante. L’objectif du présent travail a donc été de valider si la cellulose microcristalline tirée d’un processus d’hydrolyse acide pourrait mener à de nouveaux matériaux composites à valeur ajoutée. Un obstacle anticipé dans le projet a été la faible adhésion de la cellulose, hydrophile et polaire, aux polymères généralement beaucoup moins polaires. Le développement de composites performants et l’atteinte de teneurs élevés en cellulose microcristalline a donc inclus, sur le plan chimique, l’objectif de comparer divers traitements de surface de la cellulose qui permettrait de pallier aux défis anticipés. La méthodologie utilisée dans ce projet a consisté à développer et optimiser un protocole de modification chimique sur de la cellulose microcristalline commerciale à l’échelle laboratoire. Les celluloses modifiées ont été soumises à une caractérisation par analyse de l’angle de contact pour caractériser l’hydrophobicité des fibres, par spectrométrie photoélectronique X pour l’analyse de la composition chimique des fibres, par granulométrie laser pour mesurer la longueur des différentes fibres et microscopie optique pour l’observation de la longueur des fibres. Toutes les techniques ont été utilisées afin de comparer les propriétés des celluloses modifiées à celles de la cellulose de référence. La cellulose de référence et les celluloses modifiées chimiquement ont ensuite été mélangées à des concentrations de 0 à 50% avec du polyéthylène de basse densité à l’état fondu en utilisant un mélangeur interne de type Brabender®. Les composites ont été caractérisés par microscopie électronique à balayage pour analyser la morphologie de mélange sur les surfaces de rupture et l’homogénéité du mélange, par des analyses rhéologiques afin d’obtenir la viscosité en fonction du cisaillement et par des essais de traction afin de déterminer leur Module de Young, leur résistance à la traction et leur élongation à la rupture. Ces caractéristiques permettent de prévoir la performance des composites dans des applications structurales.
Resumo:
Face à la diminution des ressources énergétiques et à l’augmentation de la pollution des énergies fossiles, de très nombreuses recherches sont actuellement menées pour produire de l’énergie propre et durable et pour réduire l’utilisation des sources d’énergies fossiles caractérisées par leur production intrinsèque des gaz à effet de serre. La pile à combustible à membrane échangeuse de protons (PEMFC) est une technologie qui prend de plus en plus d’ampleur pour produire l’énergie qui s’inscrit dans un contexte de développement durable. La PEMFC est un dispositif électrochimique qui fonctionne selon le principe inverse de l’électrolyse de l’eau. Elle convertit l’énergie de la réaction chimique entre l’hydrogène et l’oxygène (ou l’air) en puissance électrique, chaleur et eau; son seul rejet dans l’atmosphère est de la vapeur d’eau. Une pile de type PEMFC est constituée d’un empilement Électrode-Membrane-Électrode (EME) où la membrane consiste en un électrolyte polymère solide séparant les deux électrodes (l’anode et la cathode). Cet ensemble est intégré entre deux plaques bipolaires (BP) qui permettent de collecter le courant électrique et de distribuer les gaz grâce à des chemins de circulation gravés sur chacune de ses deux faces. La plupart des recherches focalisent sur la PEMFC afin d’améliorer ses performances électriques et sa durabilité et aussi de réduire son coût de production. Ces recherches portent sur le développement et la caractérisation des divers éléments de ce type de pile; y compris les éléments les plus coûteux et les plus massifs, tels que les plaques bipolaires. La conception de ces plaques doit tenir compte de plusieurs paramètres : elles doivent posséder une bonne perméabilité aux gaz et doivent combiner les propriétés de résistance mécanique, de stabilité chimique et thermique ainsi qu’une conductivité électrique élevée. Elles doivent aussi permettre d’évacuer adéquatement la chaleur générée dans le cœur de la cellule. Les plaques bipolaires métalliques sont pénalisées par leur faible résistance à la corrosion et celles en graphite sont fragiles et leur coût de fabrication est élevé (dû aux phases d’usinage des canaux de cheminement des gaz). C’est pourquoi de nombreuses recherches sont orientées vers le développement d’un nouveau concept de plaques bipolaires. La voie la plus prometteuse est de remplacer les matériaux métalliques et le graphite par des composites à matrice polymère. Les plaques bipolaires composites apparaissent attrayantes en raison de leur facilité de mise en œuvre et leur faible coût de production mais nécessitent une amélioration de leurs propriétés électriques et mécaniques, d’où l’objectif principal de cette thèse dans laquelle on propose: i) un matériau nanocomposite développé par extrusion bi-vis qui est à base de polymères chargés d’additifs solides conducteurs, incluant des nanotubes de carbone. ii) fabriquer un prototype de plaque bipolaire à partir de ces matériaux en utilisant le procédé de compression à chaud avec un refroidissement contrôlé. Dans ce projet, deux polymères thermoplastiques ont été utilisés, le polyfluorure de vinylidène (PVDF) et le polyéthylène téréphtalate (PET). Les charges électriquement conductrices sélectionnées sont: le noir de carbone, le graphite et les nanotubes de carbones. La combinaison de ces charges conductrices a été aussi étudiée visant à obtenir des formulations optimisées. La conductivité électrique à travers l’épaisseur des échantillons développés ainsi que leurs propriétés mécaniques ont été soigneusement caractérisées. Les résultats ont montré que non seulement la combinaison entre les charges conductrices influence les propriétés électriques et mécaniques des prototypes développés, mais aussi la distribution de ces charges (qui de son côté dépend de leur nature, leur taille et leurs propriétés de surface), avait aidé à améliorer les propriétés visées. Il a été observé que le traitement de surface des nanotubes de carbone avait aidé à l’amélioration de la conductivité électrique et la résistance mécanique des prototypes. Le taux de cristallinité généré durant le procédé de moulage par compression des prototypes de plaques bipolaires ainsi que la cinétique de cristallisation jouent un rôle important pour l’optimisation des propriétés électriques et mécaniques visées.
Resumo:
Ce travail de thèse présente deux grands axes. Le premier axe, touche les traitements du bois dans le but principal de réduire les variations dimensionnelles et d’améliorer la résistance à l’attaque des champignons lignivores. Le second axe quant à lui, touche l’aspect environnemental du traitement acide citrique-glycérol. Ce dernier a pour but principal de démontrer que le prolongement de la durée de vie en service du produit lambris traité, compense les impacts environnementaux causés par ce traitement. Dans le premier axe, deux traitements ont été réalisés sur deux essences de pin (Pinus strobus L. et Pinus contorta D.). Un traitement à l’anhydride maléique et un autre traitement avec une solution d’acide citrique – glycérol brute (AC-G). Dans le premier cas, les effets de deux paramètres (la durée de séchage et la température d’estérification) sur les résultats des essais de stabilité dimensionnelle, de résistance à la dégradation fongique et de vieillissement accéléré ont été évalués. Trois niveaux de durée de séchage après imprégnation (12 h, 18 h et 24 h) et trois niveaux de température d’estérification (140 °C, 160 °C et 180 °C) ont été considérés. Dans le second cas, après identification du meilleur catalyseur (HCl) et du meilleur ratio acide citrique – glycérol (3/1) pendant les essais préliminaires, les performances de ce traitement sur la stabilité dimensionnelle, la résistance à la pourriture fongique, la dureté de surface et l’adhérence des couches de revêtement de peinture sur la surface du substrat bois ont été analysées. Les résultats obtenus ont été appuyés par une suite d’analyses qualitatives et quantitatives pour mieux comprendre et expliquer. Les analyses qualitatives sont : (i) la spectroscopie infrarouge à transformée de Fourier (IRTF) et (ii) la microscopie électronique à balayage (MEB) tandis que la quantitative, l’analyse par perte de masse a été faite par pesée. Dans le second axe, une analyse des impacts environnementaux du traitement AC-G a été effectuée par le biais du logiciel SimaPro v8. La base de données Ecoinvent v3 et la méthode d’analyse d’impact Impact 2002+ ont été utilisées dans cette partie du travail de thèse. Sur la base des résultats du second traitement (AC-G) et des travaux disponibles dans la littérature, nous avons estimé, une durée de vie en service des lambris traités. Les différents scénarios de la durée de vie du lambris traité mis sur pied par rapport à celle offerte aujourd’hui par l’industrie, nous permettent de modéliser les impacts environnementaux du traitement. A cette fin, l’analyse de cycle de vie (ACV) a été utilisée comme outil de conception. En conclusion, les paramètres, durée de séchage et température d’estérification influencent les résultats obtenus dans le cas du traitement du bois à l’anhydride maléique. La combinaison 24 h de séchage et 180 °C, température d’estérification, représente les paramètres qui offrent les meilleurs résultats de stabilité dimensionnelle, de résistance à la dégradation fongique et de vieillissement accéléré. Le traitement AC-G améliore la stabilité dimensionnelle, la résistance à la dégradation fongique et la dureté de surface des échantillons. Cependant, le traitement réduit l’adhérence des couches de peinture. Les impacts environnementaux produits par le traitement AC-G sont majoritairement liés à la consommation de la ressource énergie (électricité). Le traitement prolonge la durée de vie en service du lambris traité et il a été mis en évidence que le scénario de durée de vie qui permettrait que le lambris traité puisse se présenter comme un produit à faible impact environnemental par rapport au lambris non traité est celui d’une durée de vie de 55 ans.
Resumo:
Le cordon ombilical humain suscite beaucoup d’intérêt comme source de cellules à des fins de recherche et de thérapie. Quatre types cellulaires majeurs - les cellules épithéliales, stromales, musculaires lisses et endothéliales - composent les tissus solides du cordon ombilical. Quelques-uns de ces types cellulaires ont été utilisés en recherche scientifique depuis longtemps, alors que d’autres commencent à peine à dévoiler leur potentiel. Nous avons développé un protocole unique pour l’extraction séquentielle de tous ces types cellulaires d’un seul cordon ombilical, permettant ainsi la reconstruction à partir d’une même source. La combinaison des techniques de perfusion, immersion et explants a mené à la mise en culture et à l’expansion de ces cellules, dont les cellules épithéliales et les cellules stromales de la gelée de Wharton qui ont été caractérisées plus en détail par l’immunomarquage de protéines spécifiques. Leur potentiel pour la médecine régénératrice a été démontré par la production de tissus par génie tissulaire. Un vaisseau sanguin composé de cellules stromales et de cellules musculaires lisses du cordon ombilical démontra une résistance substantielle à l’éclatement. Les capacités de différenciation des cellules épithéliales ont été étudiées dans le contexte d’une peau bilamellaire reconstruite en combinaison avec des kératinocytes, des fibroblastes dermiques, et des cellules stromales de la gelée de Wharton. Les cellules épithéliales ont montré une différenciation similaire à celle des kératinocytes lorsque cultivées sur des fibroblastes dermiques et exposées à l’air, tandis que sur des cellules stromales du cordon, elles ont subi une désorganisation. Finalement, la différenciation des cellules stromales a été induite en culture vers plusieurs types cellulaires afin de compléter cette étude. L’ensemble des résultats fait ressortir l’importance non seulement de l’influence du milieu physique sur la croissance et la différenciation des cellules, mais également de l’impact de la provenance des cellules sur la qualité des tissus reconstruits.
Resumo:
Depuis l'avènement de la révolution industrielle, la société se transforme à un rythme effarant. Pour ne donner que quelques exemples, pensons à la place qu'occupent maintenant les jeunes sur le marché du travail, à la hausse de la scolarisation, mais aussi, du décrochage scolaire, à la montée de la violence, de la pauvreté et du racisme, au marché du travail qui se veut de plus en plus exigeant, au taux de chômage élevé et nous aurons un aperçu des nombreux bouleversements qui ébranlent la société. Cette période de grande transformation est à l'image de celle que peut vivre l'être humain lors de ses étapes de transition, c'est-à-dire qu'elle est souvent difficile à traverser, suscitant le doute, la peur, la résistance au changement. Plusieurs auteurs ont exploré les causes possibles de la stagnation et de l'impuissance à trouver des solutions vraiment efficaces aux nombreux défis qui sont posés. Parmi les réponses proposées, la notion des principes féminin et masculin "refait surface" et apporte un éclairage que l'on pourrait qualifier de philosophique ou de spirituel; c'est cette vision de la vie et de l'être humain que nous allons présenter dans le cadre de cet essai. C'est ainsi qu'après avoir établi un bref constat des malaises collectifs "de l'heure", nous présenterons plus spécifiquement individuels et la notion des principes féminin et masculin en utilisant une perspective historique qui nous fera remonter jusqu'à leur origine. Nous appliquerons ensuite ce concept à l'orientation et nous verrons comment il peut être utilisé à l'intérieur de la pratique carriérologique. Pour ce faire, nous présenterons en premier lieu notre cadre de référence qui s'appuie sur le courant cognitif développemental ainsi que sur la notion de résistance au changement. Nous traiterons ensuite plus particulièrement du diagnostic, du traitement et de la finalité qui sont trois voies possibles à emprunter en regard de ce concept. Enfin, nous discuterons brièvement du rôle du conseiller d'orientation, et ceci, aux niveaux individuel et collectif. Les enjeux de l'orientation étant particulièrement liés à l'expression de soi, nous tenterons de démontrer la pertinence pour l'être humain d'enrichir son répertoire de comportement en reprenant contact avec l'autre en soi: le masculin ou le féminin.
Resumo:
Cette thèse analyse les rappeurs afro-québécois des communautés de Limoilou (Limoilou Starz) et leurs amis de Montcalm comme des acteurs qui s’approprient des éléments identitaires, de lutte sociale et de survie économique, issus des problématiques globales et américaines du hip-hop, au service de leurs défis particuliers. Les divers mérites des luttes menées au moyen de leur art sont acquis par des formes spécifiques de capital. Ainsi les moyens utilisés par les rappeurs sont principalement les paroles de chansons, les prises de parole publique, dans les médias et sur scène, les campagnes d’affichage, l’utilisation des réseaux numériques, l’entreprise économique autonome (photographie, vidéographie, gestion des artistes, vente de vêtements). Ces moyens spécifiques se rattachent à d’autres principes et actions non explicités et sociohistoriquement ancrés. À partir d’une enquête ethnographique menée auprès de 31 participants dans la ville de Québec, j’utilise le concept de « réception différenciée » (Hall, 1980; Morley, 1980) pour décrire le processus de résistance des différents pratiquants et entrepreneurs de la musique aux dominations provenant de groupes divers. Trois principaux groupes de domination sont examinés : les agents d’institutions étatiques (comme les policiers du Service de Police de la Ville de Québec), les agents d’entreprises privées (comme les patrons de grandes boites de nuit et les propriétaires de labels musicaux indépendants) et les groupes et individus du milieu hip-hop, à travers leurs stratégies d’intimidation. La théorie « émergente » ou emergent-fit (Guillemette, 2006; Guillemette et Luckerhoff, 2009) permet d’entrevoir la musique hip-hop en amont comme une structure multidimensionnelle (sociale, identitaire, politique et économique) et intersectionnelle (intersection de plusieurs catégories interreliées, relatives au lieu de résidence, à la race et aux capacités économiques), et en aval comme un champ musical (Bourdieu, 1976 et 1989; Rimmer, 2010) renégocié. Cette structure a pris forme et s’est transformée grâce aux dispositions mentales et physiques (habitus) des acteurs étudiés. Les résultats de cette recherche montrent que certains rappeurs et leurs autres collègues artistes hip-hop— ainsi que quelques entrepreneurs— résistent à plusieurs sortes de domination. D’autres encore acceptent ces dominations sous forme d’idéologies, même en le reconnaissant explicitement. Par contre, une infime partie des acteurs étudiés les rejettent complètement. Ainsi, l’appropriation multidimensionnelle et intersectionnelle des sens dominants à travers le hip-hop mène à plusieurs formes de lecture de la domination et de la résistance.
Resumo:
La performance d’un produit de finition sur le bois est influencée par la manière dont la surface est préparée. Le ponçage est très utilisé pour préparer les surfaces lors de la finition. Toutefois, ce procédé génère une grande quantité de poussières. Ainsi, les effets des procédés d’usinage sur les propriétés de surface, la performance d’un vernis et l’émission de poussières ont été étudiés dans le but de déterminer les modes de préparation des surfaces les plus adéquats pour le bois de chêne rouge. Dans un premier volet, les propriétés de surface et la performance d’un vernis ont été évaluées sur les surfaces préparées à l’aide du procédé traditionnel de ponçage et de trois procédés alternatifs de rabotage soit la coupe périphérique droite, la coupe hélicoïdale et la coupe oblique. La qualité de surface a été évaluée au moyen des caractéristiques de rugosité, d’endommagement cellulaire et de mouillabilité. Des essais de résistance à l’adhésion d’un vernis d’usage intérieur ont été effectués avant et après un traitement de vieillissement accéléré. Les résultats ont montré que le ponçage a induit une rugosité et un niveau de fibrillation supérieurs à ceux des autres procédés, ainsi qu’une mouillabilité et une adhésion du vernis après vieillissement accéléré élevées. Les surfaces rabotées avec la coupe périphérique droite ont présenté un certain niveau de fibrillation, une rugosité et une mouillabilité intermédiaires. Néanmoins, l’adhésion du vernis après vieillissement a été également inférieure par rapport aux autres procédés. La coupe hélicoïdale a produit une rugosité intermédiaire. D’autre part, la coupe oblique a été le procédé qui a présenté une perte d’adhésion après vieillissement similaire au ponçage. Ce procédé a généré des surfaces lisses avec rugosité et mouillabilité intermédiaires. Sur la base des résultats obtenus, le ponçage à l’aide d’un programme P100-grain et une vitesse d’avance de 7 m/min, la coupe périphérique droite avec un angle d’attaque de 25° et une onde d’usinage de 1,0 mm, la coupe hélicoïdale avec une onde d’usinage de 1,0 mm et la coupe oblique realisé avec un angle oblique de 15° ont permis d’obtenir les meilleures conditions d’usinage pour chaque procédé. Dans un deuxième volet, l’effet de différents paramètres de coupe sur l’émission de poussières et la rugosité de la surface a été étudié lors de la coupe hélicoïdale. Les émissions de poussières ont diminué avec la diminution de laprofondeur de coupe et l’augmentation de l’épaisseur moyenne du copeau. Cependant, les surfaces obtenues avec l’épaisseur moyenne du copeau plus élevée ont présenté une rugosité supérieure. Par contre, si une surface plus lisse est requise, une vitesse d’avance intermédiaire doit être utilisée afin de diminuer la rugosité des surfaces sans exposer les travailleurs à des niveaux élevés de poussière de bois. Par ailleurs, l’émission de poussières pour chaque fraction de particules peut être estimée à travers les modèles développés.
Resumo:
Les charpentes en bois doivent inévitablement inclure des assemblages pouvant transférer les charges entre les éléments de façon adéquate pour assurer l’intégrité de la structure. Les assemblages sont une partie critique des structures en bois puisque dans la plupart des cas, ce sont ceux-ci qui permettent de dissiper l’énergie et d’obtenir un mode de rupture ductile sous les charges sismiques. Ce mode de rupture est préférable, puisqu’il donne lieu à une grande déformation avant effondrement, permettant ainsi une évacuation des occupants en toute sécurité lors de tremblement de terre. Les assemblages à petits diamètres tels que les clous, les rivets et les vis sont fréquemment utilisés dans les constructions en bois et on suppose qu’ils amènent une rupture ductile bien qu’il soit impossible pour les concepteurs de prédire exactement le mode de rupture à l’aide de la méthode de calcul actuelle. De plus, les rivets ont une application très limitée dû au fait que la méthode de calcul utilisée actuellement s’applique à des configurations, essences et types de produits de bois très spécifiques. L’objectif de ce projet est d’évaluer une nouvelle méthode de calcul proposée par des chercheurs de Nouvelle-Zélande, Zarnani et Quenneville, pour les assemblages à rivets, mais adaptable pour les assemblages de bois à attaches de petits diamètres. Elle permet au concepteur de déterminer avec précision le mode de rupture des assemblages de différentes configurations avec différents produits de bois. Plus de 70 essais sur les assemblages à rivets et à clous résistants à des charges variant de 40kN à 800kN ont été effectués dans le cadre de ce projet de recherche afin de valider l’utilisation de cette méthode avec le produit du bois lamellé-collé canadien Nordic Lam et la comparer avec celle présentement utilisée au Canada. Les modes de rupture ductile, fragile et mixte ont été prévus avec l’emphase sur le mode fragile puisque c’est celui-ci qui est le plus variable et le moins étudié. Les assemblages en bois lamellé-collé Nordic Lam étaient cloués ou rivetés selon différentes configurations variant de 18 à 128 clous ou rivets. Les résultats démontrent une bonne prédiction de la résistance et des modes de rupture des assemblages à clous et à rivets. Pour quelques configurations des assemblages à rivets, les prédictions de la nouvelle méthode sont plus élevées qu’avec la méthode actuelle. Les assemblages à clous ont démontré des ruptures de la tige de clous au niveau du plan de cisaillement lors de tous les essais effectués, ce qui ne correspond pas à un mode ductile ou fragile prévue par la méthode de calcul.
Resumo:
Ce mémoire décrit, en premier lieu, l’analyse géotechnique et géomorphologique du glissement de 1971 à Casselman, Ontario. Les caractéristiques morphologiques identifiées à l’intérieur de la cicatrice confirment qu’il s’agit d’un étalement. Le sol impliqué est une argile sensible de la mer de Champlain, normalement à légèrement surconsolidée (OCR entre 1,0 et 1,2) dont les indices de liquidité varient entre 1,0 et 2,0. La résistance au cisaillement intacte mesurée au scissomètre de chantier varie entre 50 kPa et 87 kPa. L’argile adopte un comportement anti-écrouissage (perte de 40 % de la résistance en pic) lorsque soumise à des essais de cisaillement non-drainé. Une surface de rupture quasi-horizontale à deux niveaux principaux a été identifiée à partir des sondages au piézocône réalisés à l’intérieur de la cicatrice. Les coefficients de sécurité élevés obtenus à partir de méthodes à l’équilibre limite démontrent que la rétrogression ne peut être expliquée par des méthodes d’analyses conventionnelles. La deuxième partie du mémoire présente l’application numérique du principe de rupture progressive aux étalements de Casselman (1971) et de Saint-Luc-de-Vincennes (1986). Une étude paramétrique a été réalisée afin d’évaluer l’influence de la fragilité du comportement après la résistance en pic du sol, reliée dans l’étude à une épaisseur de bande de cisaillement, ainsi que de la résistance à grande déformation, sur l’initiation et la rétrogression résultant du processus de rupture progressive. Les résultats démontrent que la résistance à grande déformation a très peu d’influence sur l’initiation du processus de rupture progressive, qui est principalement influencé par la fragilité du comportement du sol. Il a aussi été observé que la rétrogression était majoritairement influencée par la résistance à grande déformation.
Resumo:
Les éléments des ponts en acier sont exposés à de sévères conditions environnementales, tel l’épandage de sels déglaçant sur les routes. Ces éléments ont besoin d’un niveau suffisant de protection contre la corrosion afin de préserver leur intégrité à long terme. Une solution efficace, devenue populaire au Canada, est la métallisation. La métallisation est un revêtement anticorrosion formé par projection thermique de métal, généralement du zinc, sur la surface à protéger. La protection fournie au substrat d’acier est assurée par une barrière physique et une protection galvanique. Pour le calcul des assemblages boulonnés antiglissement, les codes de conception, tel le code Canadien sur le calcul des ponts routiers CAN/CSA S6-14, spécifient, en fonction des conditions des surfaces de contact désirées, un coefficient de glissement à utiliser. Actuellement, ces codes ne fournissent aucun coefficient de glissement entre deux surfaces métallisées. Donc, il est pratique courante pour les fabricants de ponts en acier de masquer les surfaces de contact des joints boulonnés avant de métalliser, ce qui est très couteux pour l’industrie puisque ce travail doit se faire manuellement. Récemment, des études ont évalué la résistance au glissement à court terme d’assemblages antiglissement ayant des surfaces de contact métallisées. Les résultats ont révélé une résistance au glissement supérieure aux assemblages sur acier nu grenaillés. Dans la présente recherche, la performance en fluage des assemblages antiglissement métallisés a été caractérisée pour s’assurer qu’une résistance en glissement de Classe B soit toujours valide à long terme. L’effet de la relaxation de la force de serrage sur la charge de glissement a aussi été évalué. Les résultats ont démontré une bonne performance en fluage. Aussi, les résultats ont révélé que la relaxation de la force de serrage n’a pas d’impact significatif sur la résistance au glissement des assemblages antiglissement métallisés. Les conclusions de cette étude pourraient bien influencer de futures révisions des codes de conception et avoir un impact sur l’industrie de l’acier en Amérique du Nord.Mots clés : Assemblage boulonné antiglissement, métallisation, pont routier en acier, fluage, relaxation
Resumo:
L’isomérisation alcaline du lactose en lactulose a été effectuée électro-chimiquement à l’aide d’un réacteur d’électro-activation en combinaison avec des résines échangeuses d’anions de polystyrène de trois types; à savoir Lewatit VP-OC-1065 faible-acide, Lewatit MP-64 moyenne-acide et Lewatit Monoplus M500 forte-acide. Les paramètres opératoires qui ont fait l’objet de cette étude ont été étudiés sur trois blocs expérimentaux pour optimiser le système. Dans le Premier bloc, les paramètres étudiés sont : (1) ratio lactose-5%(p/v) : résine échangeuse d’anions (1:0.5, 1:1 et 1:2), (2) intensité du champ électrique : 50 mA, 100 mA et 200 mA et (3) type de résines : faible, moyenne et forte. Dans le Deuxième bloc, les paramètres mis à l’étude comprenaient : (1) l’intensité du champ électrique : 300 mA, 450 mA et 550 mA, (2) le débit de la solution traitée : 25 ml / min, 50 ml/ min et 100 ml/min et (3) la surface active de la membrane adjacente au compartiment cathodique : 0.78 cm2, 7.06 cm2 et 18.1 cm2. Le Troisième bloc expérimental a été effectué sur la base de la distance entre la membrane et l’électrode : 3.1 cm, 5.6 cm et 9 cm. Le même modèle expérimental a était également réalisé avec du perméat du lactosérum d’une concentration de 7% (p/v). Les résultats obtenus ont révélé que le meilleur rendement de l’isomérisation du lactose en lactulose était obtenu après 30 minutes d’électroactivation en utilisant une solution modèle de lactose-5% avec une valeur d’environ 20.1%. Les conditions opératoires qui ont permis d’avoir ce taux de conversion sont une intensité du courant de 550 mA, un débit de la solution de 25 ml/min, une surface active de la membrane de 7.06 cm2 et une distance de 9 cm entre la cathode et la membrane qui lui y est adjacente. En utilisant le perméat de lactosérum-7%, un taux de conversion de lactose en lactulose de 8.34% a était obtenu avec une intensité du courant de 200 mA, un débit de 120 ml/min, une surface active de de 18.1cm2 et une distance de 9 cm entre la membrane et l’électrode dans le compartiment cathodique. Les analyses de variance ont indiqué un effet catalytique significatif du type de la résine. En effet, la résine-forte a permis d’avoir les plus hauts rendements de la réaction d’isomérisation par électro-activation. La résistance électrique globale du système d’électroactivation dépendait de la valeur de l’intensité du courant. Le produit final était d’une grande pureté, car il ne présentait que quelques traces de galactose (< 4%).
Resumo:
Depuis une décennie, on a remarqué que le zèle déployé par les enseignants diminuait et constaté plus de passivité chez ceux-ci. Les enseignants sont difficilement motivables et leur implication dans le système a ralenti. Une bonne majorité y semble totalement indifférente. Un ensemble de faits, de circonstances, de gestes posés, d'éléments, a amené une certaine dévalorisation des enseignants. Il faut souligner parmi ceux-ci : les nombreux changements pédagogiques, l'augmentation du nombre d'élèves par groupe ou du nombre de groupes d'élèves, le manque de ressources spécialisées, un minutage excessif, l'intégration des enfants en difficultés, sans oublier ce "burnout" qui s'est installé dans notre milieu. Depuis quelques années, on lui dicte continuellement des lignes de conduite, lui demandant tantôt de virer à gauche, tantôt de tourner à droite. On le pousse constamment à relever de nouveaux défis sans s'assurer s'il a déjà eu le temps d'assimiler les changements précédents. Il est devenu un meuble, un outil, un numéro qu'on déplace à sa guise sur l'échiquier de façon à réaliser les objectifs de l'organisation, de l'école. Et on se pose aujourd'hui la question à savoir le pourquoi de cette indifférence des enseignants envers l'organisation, l'école. Pourquoi les enseignants de cette dernière décennie sont-ils si réticents aux changements, aux nouvelles méthodes, aux nouvelles idées? Pourquoi la résistance dans plusieurs endroits empêchent-elles les forces motrices de faire en sorte que le changement désiré se réalise? [...]