35 resultados para Résistance croisée
Resumo:
Dans le contexte de la production d’éthanol cellulosique, la cellulose doit être hydrolysée par voie chimique ou enzymatique. Dans ce procédé d’hydrolyse, la partie cristalline de la cellulose est plus difficilement fragmentable, ce qui entraîne des coûts supplémentaires dues au temps de traitement plus élevé ou à la quantité supplémentaire de produits chimiques nécessaires. Dans l’optique de réduire les coûts de l’hydrolyse tout en recherchant une voie pour valoriser la cellulose cristalline, l’idée de fabriquer des composites polymères/cellulose est attrayante. L’objectif du présent travail a donc été de valider si la cellulose microcristalline tirée d’un processus d’hydrolyse acide pourrait mener à de nouveaux matériaux composites à valeur ajoutée. Un obstacle anticipé dans le projet a été la faible adhésion de la cellulose, hydrophile et polaire, aux polymères généralement beaucoup moins polaires. Le développement de composites performants et l’atteinte de teneurs élevés en cellulose microcristalline a donc inclus, sur le plan chimique, l’objectif de comparer divers traitements de surface de la cellulose qui permettrait de pallier aux défis anticipés. La méthodologie utilisée dans ce projet a consisté à développer et optimiser un protocole de modification chimique sur de la cellulose microcristalline commerciale à l’échelle laboratoire. Les celluloses modifiées ont été soumises à une caractérisation par analyse de l’angle de contact pour caractériser l’hydrophobicité des fibres, par spectrométrie photoélectronique X pour l’analyse de la composition chimique des fibres, par granulométrie laser pour mesurer la longueur des différentes fibres et microscopie optique pour l’observation de la longueur des fibres. Toutes les techniques ont été utilisées afin de comparer les propriétés des celluloses modifiées à celles de la cellulose de référence. La cellulose de référence et les celluloses modifiées chimiquement ont ensuite été mélangées à des concentrations de 0 à 50% avec du polyéthylène de basse densité à l’état fondu en utilisant un mélangeur interne de type Brabender®. Les composites ont été caractérisés par microscopie électronique à balayage pour analyser la morphologie de mélange sur les surfaces de rupture et l’homogénéité du mélange, par des analyses rhéologiques afin d’obtenir la viscosité en fonction du cisaillement et par des essais de traction afin de déterminer leur Module de Young, leur résistance à la traction et leur élongation à la rupture. Ces caractéristiques permettent de prévoir la performance des composites dans des applications structurales.
Resumo:
Depuis l'avènement de la révolution industrielle, la société se transforme à un rythme effarant. Pour ne donner que quelques exemples, pensons à la place qu'occupent maintenant les jeunes sur le marché du travail, à la hausse de la scolarisation, mais aussi, du décrochage scolaire, à la montée de la violence, de la pauvreté et du racisme, au marché du travail qui se veut de plus en plus exigeant, au taux de chômage élevé et nous aurons un aperçu des nombreux bouleversements qui ébranlent la société. Cette période de grande transformation est à l'image de celle que peut vivre l'être humain lors de ses étapes de transition, c'est-à-dire qu'elle est souvent difficile à traverser, suscitant le doute, la peur, la résistance au changement. Plusieurs auteurs ont exploré les causes possibles de la stagnation et de l'impuissance à trouver des solutions vraiment efficaces aux nombreux défis qui sont posés. Parmi les réponses proposées, la notion des principes féminin et masculin "refait surface" et apporte un éclairage que l'on pourrait qualifier de philosophique ou de spirituel; c'est cette vision de la vie et de l'être humain que nous allons présenter dans le cadre de cet essai. C'est ainsi qu'après avoir établi un bref constat des malaises collectifs "de l'heure", nous présenterons plus spécifiquement individuels et la notion des principes féminin et masculin en utilisant une perspective historique qui nous fera remonter jusqu'à leur origine. Nous appliquerons ensuite ce concept à l'orientation et nous verrons comment il peut être utilisé à l'intérieur de la pratique carriérologique. Pour ce faire, nous présenterons en premier lieu notre cadre de référence qui s'appuie sur le courant cognitif développemental ainsi que sur la notion de résistance au changement. Nous traiterons ensuite plus particulièrement du diagnostic, du traitement et de la finalité qui sont trois voies possibles à emprunter en regard de ce concept. Enfin, nous discuterons brièvement du rôle du conseiller d'orientation, et ceci, aux niveaux individuel et collectif. Les enjeux de l'orientation étant particulièrement liés à l'expression de soi, nous tenterons de démontrer la pertinence pour l'être humain d'enrichir son répertoire de comportement en reprenant contact avec l'autre en soi: le masculin ou le féminin.
Resumo:
Depuis une décennie, on a remarqué que le zèle déployé par les enseignants diminuait et constaté plus de passivité chez ceux-ci. Les enseignants sont difficilement motivables et leur implication dans le système a ralenti. Une bonne majorité y semble totalement indifférente. Un ensemble de faits, de circonstances, de gestes posés, d'éléments, a amené une certaine dévalorisation des enseignants. Il faut souligner parmi ceux-ci : les nombreux changements pédagogiques, l'augmentation du nombre d'élèves par groupe ou du nombre de groupes d'élèves, le manque de ressources spécialisées, un minutage excessif, l'intégration des enfants en difficultés, sans oublier ce "burnout" qui s'est installé dans notre milieu. Depuis quelques années, on lui dicte continuellement des lignes de conduite, lui demandant tantôt de virer à gauche, tantôt de tourner à droite. On le pousse constamment à relever de nouveaux défis sans s'assurer s'il a déjà eu le temps d'assimiler les changements précédents. Il est devenu un meuble, un outil, un numéro qu'on déplace à sa guise sur l'échiquier de façon à réaliser les objectifs de l'organisation, de l'école. Et on se pose aujourd'hui la question à savoir le pourquoi de cette indifférence des enseignants envers l'organisation, l'école. Pourquoi les enseignants de cette dernière décennie sont-ils si réticents aux changements, aux nouvelles méthodes, aux nouvelles idées? Pourquoi la résistance dans plusieurs endroits empêchent-elles les forces motrices de faire en sorte que le changement désiré se réalise? [...]
Resumo:
Le béton conventionnel (BC) a de nombreux problèmes tels que la corrosion de l’acier d'armature et les faibles résistances des constructions en béton. Par conséquent, la plupart des structures fabriquées avec du BC exigent une maintenance fréquent. Le béton fibré à ultra-hautes performances (BFUP) peut être conçu pour éliminer certaines des faiblesses caractéristiques du BC. Le BFUP est défini à travers le monde comme un béton ayant des propriétés mécaniques, de ductilité et de durabilité supérieures. Le BFUP classique comprend entre 800 kg/m³ et 1000 kg/m³ de ciment, de 25 à 35% massique (%m) de fumée de silice (FS), de 0 à 40%m de poudre de quartz (PQ) et 110-140%m de sable de quartz (SQ) (les pourcentages massiques sont basés sur la masse totale en ciment des mélanges). Le BFUP contient des fibres d'acier pour améliorer sa ductilité et sa résistance aux efforts de traction. Les quantités importantes de ciment utilisées pour produire un BFUP affectent non seulement les coûts de production et la consommation de ressources naturelles comme le calcaire, l'argile, le charbon et l'énergie électrique, mais affectent également négativement les dommages sur l'environnement en raison de la production substantielle de gaz à effet de serre dont le gas carbonique (CO[indice inférieur 2]). Par ailleurs, la distribution granulométrique du ciment présente des vides microscopiques qui peuvent être remplis avec des matières plus fines telles que la FS. Par contre, une grande quantité de FS est nécessaire pour combler ces vides uniquement avec de la FS (25 à 30%m du ciment) ce qui engendre des coûts élevés puisqu’il s’agit d’une ressource limitée. Aussi, la FS diminue de manière significative l’ouvrabilité des BFUP en raison de sa surface spécifique Blaine élevée. L’utilisation du PQ et du SQ est également coûteuse et consomme des ressources naturelles importantes. D’ailleurs, les PQ et SQ sont considérés comme des obstacles pour l’utilisation des BFUP à grande échelle dans le marché du béton, car ils ne parviennent pas à satisfaire les exigences environnementales. D’ailleurs, un rapport d'Environnement Canada stipule que le quartz provoque des dommages environnementaux immédiats et à long terme en raison de son effet biologique. Le BFUP est généralement vendu sur le marché comme un produit préemballé, ce qui limite les modifications de conception par l'utilisateur. Il est normalement transporté sur de longues distances, contrairement aux composantes des BC. Ceci contribue également à la génération de gaz à effet de serre et conduit à un coût plus élevé du produit final. Par conséquent, il existe le besoin de développer d’autres matériaux disponibles localement ayant des fonctions similaires pour remplacer partiellement ou totalement la fumée de silice, le sable de quartz ou la poudre de quartz, et donc de réduire la teneur en ciment dans BFUP, tout en ayant des propriétés comparables ou meilleures. De grandes quantités de déchets verre ne peuvent pas être recyclées en raison de leur fragilité, de leur couleur, ou des coûts élevés de recyclage. La plupart des déchets de verre vont dans les sites d'enfouissement, ce qui est indésirable puisqu’il s’agit d’un matériau non biodégradable et donc moins respectueux de l'environnement. Au cours des dernières années, des études ont été réalisées afin d’utiliser des déchets de verre comme ajout cimentaire alternatif (ACA) ou comme granulats ultrafins dans le béton, en fonction de la distribution granulométrique et de la composition chimique de ceux-ci. Cette thèse présente un nouveau type de béton écologique à base de déchets de verre à ultra-hautes performances (BEVUP) développé à l'Université de Sherbrooke. Les bétons ont été conçus à l’aide de déchets verre de particules de tailles variées et de l’optimisation granulaire de la des matrices granulaires et cimentaires. Les BEVUP peuvent être conçus avec une quantité réduite de ciment (400 à 800 kg/m³), de FS (50 à 220 kg/m³), de PQ (0 à 400 kg/m³), et de SQ (0-1200 kg/m³), tout en intégrant divers produits de déchets de verre: du sable de verre (SV) (0-1200 kg/m³) ayant un diamètre moyen (d[indice inférieur 50]) de 275 µm, une grande quantité de poudre de verre (PV) (200-700 kg/m³) ayant un d50 de 11 µm, une teneur modérée de poudre de verre fine (PVF) (50-200 kg/m³) avec d[indice inférieur] 50 de 3,8 µm. Le BEVUP contient également des fibres d'acier (pour augmenter la résistance à la traction et améliorer la ductilité), du superplastifiants (10-60 kg/m³) ainsi qu’un rapport eau-liant (E/L) aussi bas que celui de BFUP. Le remplacement du ciment et des particules de FS avec des particules de verre non-absorbantes et lisse améliore la rhéologie des BEVUP. De plus, l’utilisation de la PVF en remplacement de la FS réduit la surface spécifique totale nette d’un mélange de FS et de PVF. Puisque la surface spécifique nette des particules diminue, la quantité d’eau nécessaire pour lubrifier les surfaces des particules est moindre, ce qui permet d’obtenir un affaissement supérieur pour un même E/L. Aussi, l'utilisation de déchets de verre dans le béton abaisse la chaleur cumulative d'hydratation, ce qui contribue à minimiser le retrait de fissuration potentiel. En fonction de la composition des BEVUP et de la température de cure, ce type de béton peut atteindre des résistances à la compression allant de 130 à 230 MPa, des résistances à la flexion supérieures à 20 MPa, des résistances à la traction supérieure à 10 MPa et un module d'élasticité supérieur à 40 GPa. Les performances mécaniques de BEVUP sont améliorées grâce à la réactivité du verre amorphe, à l'optimisation granulométrique et la densification des mélanges. Les produits de déchets de verre dans les BEVUP ont un comportement pouzzolanique et réagissent avec la portlandite générée par l'hydratation du ciment. Cependant, ceci n’est pas le cas avec le sable de quartz ni la poudre de quartz dans le BFUP classique, qui réagissent à la température élevée de 400 °C. L'addition des déchets de verre améliore la densification de l'interface entre les particules. Les particules de déchets de verre ont une grande rigidité, ce qui augmente le module d'élasticité du béton. Le BEVUP a également une très bonne durabilité. Sa porosité capillaire est très faible, et le matériau est extrêmement résistant à la pénétration d’ions chlorure (≈ 8 coulombs). Sa résistance à l'abrasion (indice de pertes volumiques) est inférieure à 1,3. Le BEVUP ne subit pratiquement aucune détérioration aux cycles de gel-dégel, même après 1000 cycles. Après une évaluation des BEVUP en laboratoire, une mise à l'échelle a été réalisée avec un malaxeur de béton industriel et une validation en chantier avec de la construction de deux passerelles. Les propriétés mécaniques supérieures des BEVUP a permis de concevoir les passerelles avec des sections réduites d’environ de 60% par rapport aux sections faites de BC. Le BEVUP offre plusieurs avantages économiques et environnementaux. Il réduit le coût de production et l’empreinte carbone des structures construites de béton fibré à ultra-hautes performances (BFUP) classique, en utilisant des matériaux disponibles localement. Il réduit les émissions de CO[indice inférieur 2] associées à la production de clinkers de ciment (50% de remplacement du ciment) et utilise efficacement les ressources naturelles. De plus, la production de BEVUP permet de réduire les quantités de déchets de verre stockés ou mis en décharge qui causent des problèmes environnementaux et pourrait permettre de sauver des millions de dollars qui pourraient être dépensés dans le traitement de ces déchets. Enfin, il offre une solution alternative aux entreprises de construction dans la production de BFUP à moindre coût.
Resumo:
Abstract : Natural materials have received a full attention in many applications because they are degradable and derived directly from earth. In addition to these benefits, natural materials can be obtained from renewable resources such as plants (i.e. cellulosic fibers like flax, hemp, jute, and etc). Being cheap and light in weight, the cellulosic natural fiber is a good candidate for reinforcing bio-based polymer composites. However, the hydrophilic nature -resulted from the presence of hydroxyl groups in the structure of these fibers- restricts the application of these fibers in the polymeric matrices. This is because of weak interfacial adhesion, and difficulties in mixing due to poor wettability of the fibers within the matrices. Many attempts have been done to modify surface properties of natural fibers including physical, chemical, and physico-chemical treatments but on the one hand, these treatments are unable to cure the intrinsic defects of the surface of the fibers and on the other hand they cannot improve moisture, and alkali resistance of the fibers. However, the creation of a thin film on the fibers would achieve the mentioned objectives. This study aims firstly to functionalize the flax fibers by using selective oxidation of hydroxyl groups existed in cellulose structure to pave the way for better adhesion of subsequent amphiphilic TiO[subscript 2] thin films created by Sol-Gel technique. This method is capable of creating a very thin layer of metallic oxide on a substrate. In the next step, the effect of oxidation on the interfacial adhesion between the TiO[subscript 2] film and the fiber and thus on the physical and mechanical properties of the fiber was characterized. Eventually, the TiO[subscript 2] grafted fibers with and without oxidation were used to reinforce poly lactic acid (PLA). Tensile, impact, and short beam shear tests were performed to characterize the mechanical properties while Thermogravimetric analysis (TGA), Differential Scanning Calorimetry (DSC), Dynamic mechanical analysis (DMA), and moisture absorption were used to show the physical properties of the composites. Results showed a significant increase in physical and mechanical properties of flax fibers when the fibers were oxidized prior to TiO[subscript 2] grafting. Moreover, the TiO[subscript 2] grafted oxidized fiber caused significant changes when they were used as reinforcements in PLA. A higher interfacial strength and less amount of water absorption were obtained in comparison with the reference samples.
Resumo:
Face à l’augmentation observée des accidents de régénération en forêt boréale et leur impact sur la productivité et la résilience des peuplements denses d’épinette noire, une meilleure compréhension des mécanismes de résilience et une surveillance des risques d’accident de régénération sont nécessaires. L’objectif principal de cette étude visait donc le développement de modèles prédictifs et spatialement explicites de la régénération de l’épinette noire. Plus particulièrement, deux modèles ont été développés soit (1) un modèle théorique, développé à l’aide de données in situ et de données spatiales et (2) un modèle cartographique, utilisant uniquement des données spatiales accessibles telles que les inventaires forestiers provinciaux et l’indice spectral de sévérité des feux « differenced Normalized Burn Ratio » (dNBR). Les résultats obtenus ont permis de constater que la succession rapprochée (< 55 ans) d’une coupe et d’un feu n’entraîne pas automatiquement une ouverture des peuplements d’épinette noire. Tout d’abord, les peuplements affectés par la coupe de récupération de brûlis (1963), immatures lors du feu de 2005, sont caractérisés par une faible régénération. En contrepartie, la régénération à la suite du feu de 2005, observé dans les peuplements coupés entre 1948 et 1967, est similaire à celle observée dans les peuplements non perturbés dans les 60 années précédant le feu. Le modèle théorique sélectionné à l’aide des critères d’information d’Akaike a, quant à lui, permis d'identifier trois variables déterminantes dans le succès ou l’échec de la régénération de l’épinette noire soit (1) la végétation potentielle, (2) le pourcentage de recouvrement du sol par les sphaignes et (3) la sévérité du feu évaluée à l’aide du dNBR. Des validations bootstrap et croisée ont permis de mettre en évidence qu’un modèle utilisant ces trois variables explique 59 % de la variabilité de la régénération observée dans le territoire d’étude., Quant à lui, le modèle cartographique qui utilise uniquement les variables végétation potentielle et dNBR explique 32 % de la variabilité. Finalement ce modèle a permis la création d’une carte de risque d’accident de régénération. Basée sur la précision du modèle, cette carte offre un potentiel intéressant afin de cibler les secteurs les plus à risque et ainsi appuyer les décisions relatives aux reboisements dans les zones incendiées.
Resumo:
Les changements climatiques observés depuis les dernières années semblent avoir un impact sur la distribution et l’abondance des espèces dans plusieurs régions du monde. Cette évolution du climat peut représenter un risque pour la survie de certaines espèces car elle peut impliquer leur migration vers une niche écologique leur étant plus favorable. Ce déplacement est possible si l’espèce possède une forte capacité de dispersion et si le territoire sur lequel elle se déplace n’est pas fragmenté. La modélisation de la distribution d’espèces et de niches écologiques, prenant en compte l’évolution des variables environnementales, permet de connaître la distribution potentielle des espèces à la période actuelle et à des périodes futures selon différents scénarios. Au Québec, ces modélisations de distributions de niches écologiques potentielles constituent une source d’information très utile pour les gestionnaires du territoire, en particulier des aires protégées. Ces données permettent notamment d’anticiper la migration des espèces, influencée par les changements climatiques, afin d’identifier les défis de conservation à venir et de poser une réflexion sur le rôle des aires protégées dans ce contexte. L’objectif général de cet essai vise à étudier la migration potentielle des niches écologiques liée aux changements climatiques sur le territoire des parcs nationaux de Frontenac, du Mont-Mégantic et de leur périphérie. Les changements de répartition et de richesse spécifique de plus de 600 niches écologiques dans ce secteur ont été étudiés ainsi que leur implication en lien avec la fragmentation du territoire. Deux échelles de travail (locale et régionale) ont été considérées et des indices spatiaux de changement de répartition et de diversité des niches écologiques ont été calculés pour ces deux échelles de travail, selon deux modes de dispersion (absence de dispersion et dispersion illimitée) et deux horizons futurs (2050 et 2080). Ces indices ont révélé majoritairement une augmentation des niches écologiques apparaissant sur le territoire et une hausse de la diversité de niches écologiques sur l’ensemble du territoire en cas de dispersion illimitée, phénomène accentué à l’horizon 2080. Par contre, en cas d’absence de dispersion, une disparition importante de niches écologiques ainsi qu’une perte de diversité sont à anticiper sur le territoire, phénomène également accentué à l’horizon 2080. L’étude de la fragmentation révèle un territoire relativement fragmenté par les routes, mais présentant majoritairement une faible résistance au déplacement des espèces, malgré la présence de quelques pôles urbains de moyenne importance. Cette étude se base sur des résultats de modélisation de niches écologiques déjà effectués pour l’ensemble du Québec et pourrait ainsi être appliquée à d’autres territoires. Les résultats montrent d’importants changements à venir et les gestionnaires et scientifiques travaillant sur ce territoire pourront utiliser les résultats obtenus pour réfléchir à la mise en place de mesures adaptées aux déplacements potentiels.
Resumo:
Résumé : Une dysrégulation de la lipolyse des tissus adipeux peut conduire à une surexposition des tissus non-adipeux aux acides gras non-estérifiés (AGNE), qui peut mener à un certain degré de lipotoxicité dans ces tissus. La lipotoxicité constitue, par ailleurs, l’une des causes majeures du développement de la résistance à l’insuline et du diabète de type 2. En plus de ses fonctions glucorégulatrices, l’insuline a pour fonction d’inhiber la lipolyse et donc de diminuer les niveaux d’AGNE en circulation, prévenant ainsi la lipotoxicité. Il n’y a pas d’étalon d’or pour mesurer la sensibilité de la lipolyse à l’insuline. Le clamp euglycémique hyperinsulinémique constitue la méthode étalon d’or pour évaluer la sensibilité du glucose à l’insuline mais il est aussi utilisé pour mesurer la suppression de la lipolyse par l’insuline. Par contre, cette méthode est couteuse et laborieuse, et ne peut pas s’appliquer à de grandes populations. Il existe aussi des indices pour estimer la fonction antilipolytique de l’insuline dérivés de l’hyperglycémie provoquée par voie orale (HGPO), un test moins dispendieux et plus simple à effectuer à grande échelle. Cette étude vise donc à : 1) Étudier la relation entre les indices de suppressibilité des AGNE par l’insuline dérivés du clamp et ceux dérivés de l’HGPO; et 2) Déterminer laquelle de ces mesures corrèle le mieux avec les facteurs connus comme étant reliés à la dysfonction adipeuse : paramètres anthropométriques et indices de dysfonction métabolique. Les résultats montrent que dans le groupe de sujets étudiés (n=29 femmes, 15 témoins saines et 14 femmes avec résistance à l’insuline car atteintes du syndrome des ovaires polykystiques), certains indices de sensibilité à l’insuline pour la lipolyse dérivés de l’HGPO corrèlent bien avec ceux dérivés du clamp euglycémique hyperinsulinémique. Parmi ces indices, celui qui corrèle le mieux avec les indices du clamp et les paramètres anthropométriques et de dysfonction adipeuse est le T50[indice inférieur AGNE] (temps nécessaire pour diminuer de 50% le taux de base – à jeun – des AGNE). Nos résultats suggèrent donc que l’HGPO, facile à réaliser, peut être utilisée pour évaluer la sensibilité de la lipolyse à l’insuline. Nous pensons que la lipo-résistance à l’insuline peut être facilement quantifiée en clinique humaine.
Resumo:
La dégradation du béton associée à l’exposition en ambiance hivernale rigoureuse est une problématique connue en Amérique du Nord en raison de la sévérité du climat en période hivernale. Un des types de dégradation, la fissuration interne, se manifeste par l'apparition d'une intense microfissuration du béton en surface, mais aussi à l'intérieur de la masse. Celle-ci peut conduire à une perte de cohésion du matériau, réduisant ses caractéristiques mécaniques et sa perméabilité. Dans un souci de développement durable et de recherche performancielle, des liants ternaires, comprenant des ajouts minéraux autre que la fumée de silice ont été développés. Les études scientifiques portant sur l’influence du facteur d’espacement à ce type de dégradation sont peu nombreuses, voire inexistantes. Il est par conséquent important de vérifier si les spécifications actuelles permettent d’assurer la confection d’un matériau durable au gel. Dans ce mémoire, nous avons étudié l’influence du facteur d’espacement, du paramètre E/L, de l’influence du type de superplastifiant et d’un granulat marginal sur la résistance à la fissuration interne des bétons en utilisant l’essai accéléré normalisé ASTM C666, procédure A lors de l’utilisation de liants ternaires. Une grande partie de cette recherche a porté sur l’étude de la relation entre le facteur d’espacement et la tenue aux cycles gel-dégel des bétons. Le projet s’est divisé en 4 phases, la première a permis de déterminer un intervalle contenant le facteur d’espacement critique pour chacun des liants étudiés. Il est ainsi établi qu’il est nécessaire d’avoir un facteur d’espacement inférieur à 340 µm pour assurer la durabilité des bétons V-S formulés à partir de liants ternaires. La deuxième phase a montré que le type de superplastifiant n’influe pas sur le facteur d’espacement critique, mais change les caractéristiques du réseau d’air à l’état frais. La troisième phase a porté sur l’analyse de l’influence d’une variation du rapport E/L sur la durabilité au gel-dégel. Il en résulte qu’une variation dans les limites permises n’a pas d’incidence sur le facteur d’espacement critique tant que les hypothèses restent dans l’intervalle prescrit par le tome VII de la norme 3101. La dernière et quatrième phase a permis de montrer que le granulat marginal sélectionné n’a pas d’incidence particulière sur la résistance au gel-dégel en fissuration interne.
Resumo:
La réalisation de l’évaluation environnementale, en France, est encouragée par l’existence de règlements, lois, directives et normes Européennes (notamment la Directive 2001/42/CE du Parlement européen et du Conseil du 27 juin 2001 relative à l'évaluation des incidences de certains plans et programmes sur l'environnement et la Loi n° 2015-992 du 17 août 2015 relative à la transition énergétique pour la croissance verte). La compréhension du cadre Drivers – Pressures – State – Impacts – Responses permet de replacer les différentes méthodologies dans un cadre conceptuel plus large. Les méthodes d’analyse de flux de matières (Pressures) et d’analyse de cycle de vie (Impacts) sont les deux familles d’évaluation environnementale considérées dans ce travail. C’est plus précisément l’analyse de flux de matières selon Eurostat et l’analyse de cycle de vie territoriale qui ont été appliquées au territoire métropolitain d’Aix-Marseille-Provence. Un état de l’art relevant les études dans lesquelles sont réalisées des analyses de flux de matières a pu montrer que cette famille de méthodes informe sur le métabolisme des territoires à partir de différents types de flux. L’importance des flux indirects et des ressources minérales dans les métabolismes a ainsi été démontrée. Du côté des études analysant les cycles de vie sur les territoires, comme c’est le cas dans l’analyse de cycle de vie territoriale, la distinction faite entre les impacts et dommages, directs ou globaux, permet d’offrir des recommandations ciblées, améliorant la qualité de vie des citoyens. La mise en œuvre de ces deux méthodes sur le territoire métropolitain a mis en évidence l’importance dominante des flux indirects liés aux importations et exportations que génèrent les activités du territoire, elles-mêmes fortement influencées par la présence du port de Marseille-Fos. L’activité pétrochimique, qui caractérise elle aussi la métropole, est une grande consommatrice de combustibles fossiles, ce qui se reflète dans les volumes de flux calculés et leurs impacts associés. Les deux méthodologies s’avèrent complémentaires, chacune ayant ses forces et faiblesses respectives. Pour l’analyse de cycle de vie, la pensée cycle de vie et la prise en compte de la qualité de la matière, d’une part, et la facilité d’application et la marge d’erreur réduite de l’analyse de flux de matières, d’autre part, en plus de leurs résultats complémentaires, justifient un usage hybride pour la prise d’actions ciblées. En effet, la collecte commune des données rend intéressante leur exploitation et l’interprétation croisée de leurs résultats.
Resumo:
La vérification de la résistance aux attaques des implémentations embarquées des vérifieurs de code intermédiaire Java Card est une tâche complexe. Les méthodes actuelles n'étant pas suffisamment efficaces, seule la génération de tests manuelle est possible. Pour automatiser ce processus, nous proposons une méthode appelée VTG (Vulnerability Test Generation, génération de tests de vulnérabilité). En se basant sur une représentation formelle des comportements fonctionnels du système sous test, un ensemble de tests d'intrusions est généré. Cette méthode s'inspire des techniques de mutation et de test à base de modèle. Dans un premier temps, le modèle est muté selon des règles que nous avons définies afin de représenter les potentielles attaques. Les tests sont ensuite extraits à partir des modèles mutants. Deux modèles Event-B ont été proposés. Le premier représente les contraintes structurelles des fichiers d'application Java Card. Le VTG permet en quelques secondes de générer des centaines de tests abstraits. Le second modèle est composé de 66 événements permettant de représenter 61 instructions Java Card. La mutation est effectuée en quelques secondes. L'extraction des tests permet de générer 223 tests en 45 min. Chaque test permet de vérifier une précondition ou une combinaison de préconditions d'une instruction. Cette méthode nous a permis de tester différents mécanismes d'implémentations de vérifieur de code intermédiaire Java Card. Bien que développée pour notre cas d'étude, la méthode proposée est générique et a été appliquée à d'autres cas d'études.
Resumo:
Nous avons choisi d’orienter cet essai sur la conception et le développement d’un dispositif d’apprentissage pour aider les enseignantes et enseignants à améliorer la compétence des stagiaires en matière d’asepsie de l’instrumentation dentaire lors de stages cliniques du programme de techniques de denturologie du cégep Édouard-Montpetit. L’idée d’un tel dispositif d’apprentissage prend racine à partir d’observations concrètes et récurrentes. En effet, depuis plusieurs années les enseignantes et enseignants du département de Techniques de denturologie ont pu remarquer des lacunes dans l’application des mesures d’asepsie, tout particulièrement celles de l’instrumentation dentaire. Le contexte particulier de la pratique de la prosthodontie, les risques élevés de contamination croisée, l’usage d’un grand nombre d’instruments dentaires, le manque de matériel didactique et d’activités d’apprentissage spécifiques à la pratique de la denturologie et l’inexistence d’un protocole d’asepsie au département de Techniques de denturologie font qu’il est difficile d’accroître la compétence des stagiaires en matière d’asepsie dentaire. Le cadre de référence a permis de circonscrire notre dispositif d’apprentissage développé dans le projet de cet essai. Nous avons donc exploré les différents modèles de téléapprentissage et appuyé notre choix sur ceux proposés par Paquette (2005a). Ainsi nous avons choisi de retenir deux modèles de téléapprentissage, soit l’autoformation Web-hypermédia et la formation en ligne. Nous avons aussi regardé les principes soutenant l’ingénierie pédagogique et les différents modèles permettant l’application d’un processus systémique à la conception et au développement d’un dispositif d’apprentissage en s’appuyant sur le modèle ADDIE (Analyse-Design- Développement-Implantation-Évaluation), plus particulièrement celui de Lebrun (2007). L’approche méthodologique retenue pour cet essai est qualitative / interprétative. Le type de notre essai est basé sur une démarche de recherche développement proposée par Harvey et Loiselle (2009) qui est liée à la conception d’un dispositif d’apprentissage. Nous avons pu compter sur la collaboration d’enseignantes et enseignants du département de denturologie du cégep Édouard-Montpetit afin de valider trois des cinq étapes du modèle ADDIE, soit l’analyse, le design et le développement. Les résultats obtenus auprès des enseignantes et enseignants du département ont démontré que le modèle ADDIE de Lebrun (2007) s’est avéré un processus systémique adéquat et efficace qui a permis de concevoir et développer un dispositif d’apprentissage efficient. En ce qui a trait aux pistes futures, il sera intéressant d’expérimenter ce dispositif d’apprentissage auprès des stagiaires en denturologie afin de mesurer leur intérêt à ce mode d’accès à la connaissance et leur perception à l’égard de leur compétence sur l’asepsie de l’instrumentation dentaire. Il sera possible ainsi d’envisager la pertinence d’intégrer cette formation en ligne à l’intérieur du stage clinique voire même dans d’autres cours du programme. De plus, une recherche pourrait aussi être conduite auprès de stagiaires d’un programme collégial similaire, soit celui de Techniques d’hygiène dentaire dans lequel les stagiaires font aussi un stage clinique à l’intérieur du Cégep. Une autre recherche permettrait d’expérimenter ce dispositif d’apprentissage auprès des denturologistes du Québec. Ce faisant, des chercheuses et des chercheurs pourraient comparer la perception de l’amélioration de la compétence de l’asepsie de l’instrumentation dentaire des denturologistes à celle des stagiaires. Enfin, une avenue qui serait possible serait celle où des chercheuses et des chercheurs pourraient s’intéresser à l’usage même des technologies de l’information et de la communication (TIC) en déterminant dans quelle mesure les « ressources d’enseignement et d’apprentissage (REA) » (Poellhuber et Fournier St-Laurent, 2014, p. 163) pourraient être les plus significatives à l’apprentissage et mesurer ainsi l’effet catalyseur des REA sur les pratiques d’apprentissage des stagiaires.
Resumo:
L’approche par compétences s’est déployée dans le réseau collégial à partir de 1993, et les programmes d’enseignement par objectifs ont été graduellement remplacés par les programmes par compétences. Le ministère de l’Éducation, du Loisir et du Sport voulait ainsi remédier à certaines des lacunes associées aux programmes d’enseignement par objectifs, dont les apprentissages morcelés et difficilement transférables, et la démotivation d’une partie de la clientèle étudiante. Aux programmes d’enseignement par objectifs étaient reliées les évaluations traditionnelles, qui souvent portent sur des apprentissages factuels et décontextualisés. L’arrivée des programmes par compétences a entraîné des changements importants au niveau des façons d’évaluer les apprentissages des étudiantes et des étudiants, de telle sorte que plusieurs auteurs ont parlé d’un changement de paradigme. Les examens traditionnels ont été remplacés par des évaluations où l’on présente à l’étudiante ou à l’étudiant une tâche complexe à réaliser, qui demande la mobilisation d’un ensemble de ressources de sa part. L’accent est mis sur la capacité de l’étudiante ou de l’étudiant à démontrer qu’il peut utiliser ses compétences dans des situations réelles. Dans certains cours collégiaux, toutefois, les modalités d’évaluation des apprentissages n’ont pas été revues suite à l’implantation de l’approche par compétences. De multiples facteurs peuvent expliquer cette situation, dont l’absence de formation initiale en évaluation des apprentissages des enseignantes et des enseignants de l’ordre collégial, tout comme l’absence de perfectionnement obligatoire en cours d’emploi. De plus, l’approche par compétences a été imposée au réseau de l’éducation au collégial sans en consulter suffisamment les acteurs ; certaines difficultés d’adaptation ou des réactions de résistance ont pu en découler. Le cours L’entreprise dans le monde contemporain se retrouve en première session du programme Sciences humaines, profil Administration au Collège Édouard-Montpetit. Chaque année, près de 450 étudiantes et étudiants suivent ce cours qui vise à initier l’étudiante et l’étudiant aux méthodes propres à l’administration, et à la découverte du développement de l’entreprise comme mode d’organisation du phénomène humain. En 2001, l’approche par compétences a été implantée dans le programme de Sciences humaines; pourtant, les outils d’évaluation de ce cours n’ont pas été renouvelés ni adaptés aux principes de l’approche par compétences. L’objectif général de cette recherche a donc été de revoir les modalités d’évaluation des apprentissages du cours L’entreprise dans le monde contemporain afin qu’elles s’inscrivent dans l’approche par compétences. Suite à une recension des écrits portant sur l’évaluation des apprentissages dans une approche par compétences au collégial, nous avons déterminé qu’un outil d’évaluation des apprentissages devrait être en situation authentique, favoriser la motivation, s’appuyer sur l’approche socioconstructiviste, favoriser une approche critériée, être basé sur l’utilisation des habiletés supérieures de la pensée et respecter la politique institutionnelle des apprentissages de son collège. Les grilles d’évaluation, employées pour noter la performance de l’étudiante et de l’étudiant, devraient utiliser les échelles descriptives, décrivant les différents niveaux de performance possibles de manière qualitative. Après avoir établi la synthèse des caractéristiques attendues d’un outil d’évaluation qui s’inscrit dans l’approche par compétences, nous avons formulé deux objectifs spécifiques ; d’abord, le développement d’un outil d’évaluation des apprentissages, et sa grille d’évaluation, qui s’inscrit dans l’approche par compétences ; ensuite, la validation de l’outil d’évaluation des apprentissages, et de sa grille d’évaluation, en recueillant les commentaires d’experts en évaluation des apprentissages au collégial. La recherche développement est l’approche méthodologique qui a été retenue pour mener à bien ce projet de recherche. L’outil d’évaluation a été développé en suivant rigoureusement les étapes proposées par Louis (1999) pour la conception de tâches d’évaluation authentiques et complexes. L’outil d’évaluation ainsi développé a ensuite été soumis à trois experts en évaluation des apprentissages au collégial, qui ont été sondés d’abord par questionnaire, puis rencontrés pour des entrevues semi-dirigées qui ont permis de recueillir de manière nuancée leurs commentaires sur l’outil d’évaluation produit. Les données recueillies auprès des experts en évaluation des apprentissages au collégial ont permis de vérifier l’adéquation de l’outil d’évaluation développé au cadre de référence théorique. De manière générale, les experts en évaluation des apprentissages ont relevé de nombreux points forts de l’outil d’évaluation, dont son potentiel de motivation vis-à-vis la clientèle étudiante de première session du programme de Sciences humaines. La même suggestion d’amélioration a été faite par tous les experts : inclure des notes explicatives aux termes utilisés dans les grilles d’évaluation. Cet ajout a été fait, et l’outil d’évaluation des apprentissages révisé est maintenant disponible pour être utilisé par les enseignantes et les enseignants qui le désirent. Une piste de recherche future pourrait être de faire une mise à l’essai en classe de l’outil d’évaluation des apprentissages développé et de recueillir les commentaires, positifs ou négatifs, des étudiantes et des étudiants qui l’ont utilisé, afin d’y apporter d’autres améliorations.
Resumo:
Le marché de l'énergie distribuée est actuellement en pleine expansion et favorise l'intégration d'une multitude de sources d'énergie, et les machines à combustion interne ne sont pas exclues. Les moteurs à piston sont actuellement les principaux acteurs du marché, en raison de leur rendement élevé et de leur faible coût en capital. Cependant, la réglementation de plus en plus sévère sur les émissions ainsi que les coûts liés à la maintenance et les temps d'arrêt sont prohibitifs pour ce type de machines, en particulier dans le segment de basse puissance et de production d’énergie et de chaleur combinées (CHP). C'est là que les microturbines opérant sous le cycle récupéré – de petites turbines à gaz qui produisent moins de 1 MW de puissance – ont un avantage concurrentiel, grâce à moins de pièces en mouvement, une combustion plus propre et une température élevée d'échappement. Les petites turbomachines récupérées doivent atteindre des températures d'entrée de turbine (TIT) très élevées, requises pour atteindre 40% de rendement thermique. Les céramiques non refroidies offrent une solution très attrayante, avec plusieurs essais mais des résultats peu concluants dans la littérature. Ce travail présente une nouvelle architecture qui prend en charge des pales en céramique monolithique dans un environnement d’opération à chaud. La turbine renversée en céramique (ICT) est constituée d'un moyeu métallique flexible qui fournit une base souple pour les pales individuelles en céramique qui sont supportées par l'extérieur par un anneau en composite carbone-polymère. Les forces centrifuges chargent les pales en compression au lieu d’en tension, exploitant ainsi la résistance en compression typiquement élevée des céramiques techniques. Le document présente la validation expérimentale entreprise pour vérifier l'intégrité structurelle d’un prototype de configuration ICT à petite échelle, dans des conditions de fonctionnement à froid et à chaud, ainsi que les étapes qui y ont mené. Les résultats expérimentaux montrent que l'ICT supporte des pales en alumine dans les tests à froid et le nitrure de silicium pour des températures d'entrée du rotor jusqu'à 1000 K, avec des vitesses de pointe de pale atteignant 271 m/s. L’incursion d’objet domestique, l'événement le plus désastreux à se produire dans les turbines en céramique dans la littérature, n'a pas causé de dommages aux pales dans cette configuration. Ces résultats indiquent que l'architecture ICT est robuste et viable, et que le développement peut être poursuivi pour augmenter la TIT et la vitesse de pointe de la turbine, afin d’éventuellement parvenir à une microturbine récupérée en céramique de 1600 K de TIT.
Resumo:
Malgré l'augmentation constante de l'efficacité des cellules photovoltaïques multi-jonctions destinées au photovoltaïque concentré, des pertes de performances subsistent à haute concentration solaire. Elles sont principalement causées par un ombrage excessif dû aux métallisations ou par effet Joule à cause de la résistance série. Une des solutions à ce problème est de reporter le contact métallique en face avant sur la face arrière grâce à des vias métallisés et isolés électriquement. Avec cette architecture, les pertes dues à l'effet Joule et à l'ombrage seront limitées et des gains en efficacité sont attendus. Toutefois, l'intégration de vias sur des cellules photovoltaïques triple jonction favorise la recombinaison électron-trou en surface et peut provoquer une perte de performances de ces dispositifs. Ce mémoire présente les travaux de recherche effectués visant à étudier précisément cette problématique ainsi qu'à proposer des solutions pour limiter ces pertes. L'objectif est d'évaluer les pertes de performances de cellules photovoltaïques triple jonction suite à l'intégration de vias. Dans un second temps, l'objectif secondaire vise à limiter les pertes grâce à des traitements de passivation. Les résultats et solutions qu'apporte ce projet représentent une étape clé dans la réalisation de cette nouvelle architecture de contact électrique pour cellules photovoltaïques. En effet, les conclusions de ce projet de recherche permettent de valider la possibilité d'obtenir des gains en efficacité grâce à cette architecture. De plus, les procédés de microfabrication présentés dans ce projet de recherche proposent des solutions afin d'intégrer des vias sur ces hétérostructures tout en limitant les pertes en performances.