44 resultados para Microscopie optique polarisante
Resumo:
Le polyhydroxybutyrate (PHB) est un biopolymère intracellulaire synthétisé par fermentation bactérienne. Il présente de nombreux avantages (propriétés thermiques et mécaniques comparables à celles de polyoléfines, haute hydrophobie, biocompatibilité, biodégradabilité, industrialisable) et de nombreux inconvénients significatifs (mauvaise stabilité thermique et fragilité). Cette mauvaise stabilité est due à un phénomène de dégradation thermique proche du point de fusion du PHB. Ceci conduit à une réduction du poids moléculaire par un procédé de scission de chaîne aléatoire, modifiant alors irréversiblement les propriétés cristallines et rhéologiques de manière. Ainsi, les températures de fusion et de cristallisation du PHB diminuent drastiquement et la cinétique de cristallisation est ralentie. Par ailleurs, un second phénomène d'autonucléation intervient à proximité du point de fusion. En effet, une certaine quantité d'énergie est nécessaire pour effacer toute présence de résidus cristallins dans la matière à l’état fondu. Ces résidus peuvent agir comme nucléides pendant le processus de cristallisation et y influencer de manière significative la cinétique de cristallisation du PHB. Ce mémoire vise à montrer l'effet des processus de dégradation thermique et d’autonucléation du PHB sur sa cinétique de cristallisation. Pour cela, trois protocoles thermiques spécifiques ont été proposés, faisant varier la température maximum de chauffe (Th) et le temps de maintien à cette température (th) afin apporter une nouvelle approche de effet du traitement thermique sur la cristallisation, l’autonucléation, la dégradation thermique et la microstructure du PHB en utilisant respectivement la calorimétrie différentielle à balayage (DSC) dans des conditions cristallisation non-isotherme et isotherme, la diffraction de rayon X (WAXD), la spectroscopie infrarouge (FT-IR) et la microscopie optique. Th a été varié entre 167 et 200 °C et th entre 3 et 10 min. À Th ≥185°C, le phénomène de scission de chaine est le seul phénomène qui influence de cinétique de cristallisation alors qu’à Th < 180°C le processus de nucléation homogène est favorisé par la présence de résidus cristallins est prédomine sur le phénomène de dégradation. En ce qui concerne l'effet du temps de maintien, th, il a été mis en évidence le phénomène de dégradation thermique est sensible à la variation de ce paramètre, ce qui n’est pas le cas du processus d’autonucléation. Finalement, il a été montré que la morphologie cristalline est fortement affectée par les mécanismes de dégradation thermique et d'auto-nucléation.
Resumo:
Dans le contexte de la production d’éthanol cellulosique, la cellulose doit être hydrolysée par voie chimique ou enzymatique. Dans ce procédé d’hydrolyse, la partie cristalline de la cellulose est plus difficilement fragmentable, ce qui entraîne des coûts supplémentaires dues au temps de traitement plus élevé ou à la quantité supplémentaire de produits chimiques nécessaires. Dans l’optique de réduire les coûts de l’hydrolyse tout en recherchant une voie pour valoriser la cellulose cristalline, l’idée de fabriquer des composites polymères/cellulose est attrayante. L’objectif du présent travail a donc été de valider si la cellulose microcristalline tirée d’un processus d’hydrolyse acide pourrait mener à de nouveaux matériaux composites à valeur ajoutée. Un obstacle anticipé dans le projet a été la faible adhésion de la cellulose, hydrophile et polaire, aux polymères généralement beaucoup moins polaires. Le développement de composites performants et l’atteinte de teneurs élevés en cellulose microcristalline a donc inclus, sur le plan chimique, l’objectif de comparer divers traitements de surface de la cellulose qui permettrait de pallier aux défis anticipés. La méthodologie utilisée dans ce projet a consisté à développer et optimiser un protocole de modification chimique sur de la cellulose microcristalline commerciale à l’échelle laboratoire. Les celluloses modifiées ont été soumises à une caractérisation par analyse de l’angle de contact pour caractériser l’hydrophobicité des fibres, par spectrométrie photoélectronique X pour l’analyse de la composition chimique des fibres, par granulométrie laser pour mesurer la longueur des différentes fibres et microscopie optique pour l’observation de la longueur des fibres. Toutes les techniques ont été utilisées afin de comparer les propriétés des celluloses modifiées à celles de la cellulose de référence. La cellulose de référence et les celluloses modifiées chimiquement ont ensuite été mélangées à des concentrations de 0 à 50% avec du polyéthylène de basse densité à l’état fondu en utilisant un mélangeur interne de type Brabender®. Les composites ont été caractérisés par microscopie électronique à balayage pour analyser la morphologie de mélange sur les surfaces de rupture et l’homogénéité du mélange, par des analyses rhéologiques afin d’obtenir la viscosité en fonction du cisaillement et par des essais de traction afin de déterminer leur Module de Young, leur résistance à la traction et leur élongation à la rupture. Ces caractéristiques permettent de prévoir la performance des composites dans des applications structurales.
Resumo:
L'imagerie par tomographie optique diffuse requiert de modéliser la propagation de la lumière dans un tissu biologique pour une configuration optique et géométrique donnée. On appelle cela le problème direct. Une nouvelle approche basée sur la méthode des différences finies pour modéliser numériquement via l'équation de la diffusion (ED) la propagation de la lumière dans le domaine temporel dans un milieu inhomogène 3D avec frontières irrégulières est développée pour le cas de l'imagerie intrinsèque, c'est-à-dire l'imagerie des paramètres optiques d'absorption et de diffusion d'un tissu. Les éléments finis, lourds en calculs, car utilisant des maillages non structurés, sont généralement préférés, car les différences finies ne permettent pas de prendre en compte simplement des frontières irrégulières. L'utilisation de la méthode de blocking-off ainsi que d'un filtre de Sobel en 3D peuvent en principe permettre de surmonter ces difficultés et d'obtenir des équations rapides à résoudre numériquement avec les différences finies. Un algorithme est développé dans le présent ouvrage pour implanter cette approche et l'appliquer dans divers cas puis de la valider en comparant les résultats obtenus à ceux de simulations Monte-Carlo qui servent de référence. L'objectif ultime du projet est de pouvoir imager en trois dimensions un petit animal, c'est pourquoi le modèle de propagation est au coeur de l'algorithme de reconstruction d'images. L'obtention d'images requière la résolution d'un problème inverse de grandes dimensions et l'algorithme est basé sur une fonction objective que l'on minimise de façon itérative à l'aide d'une méthode basée sur le gradient. La fonction objective mesure l'écart entre les mesures expérimentales faites sur le sujet et les prédictions de celles-ci obtenues du modèle de propagation. Une des difficultés dans ce type d'algorithme est l'obtention du gradient. Ceci est fait à l'aide de variables auxiliaire (ou adjointes). Le but est de développer et de combiner des méthodes qui permettent à l'algorithme de converger le plus rapidement possible pour obtenir les propriétés optiques les plus fidèles possible à la réalité capable d'exploiter la dépendance temporelle des mesures résolues en temps, qui fournissent plus d'informations tout autre type de mesure en TOD. Des résultats illustrant la reconstruction d'un milieu complexe comme une souris sont présentés pour démontrer le potentiel de notre approche.
Resumo:
Un moyen permettant d'identifier expérimentalement les phases du gaz d'électrons bidimensionnel de la bicouche de graphène en empilement bernal au remplissage $\nu = 3$ est recherché lorsque le biais électrique entre les couches est varié. À ce remplissage, si on se concentre aux basses énergies, il est possible de ne s'intéresser qu'aux deux niveaux de Landau composant le niveau $N=0$ qui sont de même spin et de même vallée, mais d'orbitale différente. Puisque la texture du pseudospin orbital de ce système change selon la phase, il est attendu que le couplage avec le champ électrique de la lumière devrait changer. La dispersion des modes collectifs de chaque phase est calculée dans l'approximation GRPA (generalized random-phase approximation) dans le domaine en biais où chacune domine respectivement. L'absorption optique pour des polarisations linéaires en direction x et en direction y ainsi que pour des polarisations circulaires gauche et droite est calculée. La rotation de Faraday et l'effet Kerr sont également calculés. Des différences entre les phases sont remarquées au niveaux de la fréquence des photons qui sont absorbés, de l'amplitude de l'absorption et de la rotation de la polarisation ainsi que la sensibilité à certains types de polarisation. L'effet des modes collectifs dans les phases considérées est cependant moindre que celui qui est prédit dans un calcul qui ne tient pas compte de l'interaction de Coulomb.
Resumo:
Résumé : La texture dispose d’un bon potentiel discriminant qui complète celui des paramètres radiométriques dans le processus de classification d’image. L’indice Compact Texture Unit (CTU) multibande, récemment mis au point par Safia et He (2014), permet d’extraire la texture sur plusieurs bandes à la fois, donc de tirer parti d’un surcroît d’informations ignorées jusqu’ici dans les analyses texturales traditionnelles : l’interdépendance entre les bandes. Toutefois, ce nouvel outil n’a pas encore été testé sur des images multisources, usage qui peut se révéler d’un grand intérêt quand on considère par exemple toute la richesse texturale que le radar peut apporter en supplément à l’optique, par combinaison de données. Cette étude permet donc de compléter la validation initiée par Safia (2014) en appliquant le CTU sur un couple d’images optique-radar. L’analyse texturale de ce jeu de données a permis de générer une image en « texture couleur ». Ces bandes texturales créées sont à nouveau combinées avec les bandes initiales de l’optique, avant d’être intégrées dans un processus de classification de l’occupation du sol sous eCognition. Le même procédé de classification (mais sans CTU) est appliqué respectivement sur : la donnée Optique, puis le Radar, et enfin la combinaison Optique-Radar. Par ailleurs le CTU généré sur l’Optique uniquement (monosource) est comparé à celui dérivant du couple Optique-Radar (multisources). L’analyse du pouvoir séparateur de ces différentes bandes à partir d’histogrammes, ainsi que l’outil matrice de confusion, permet de confronter la performance de ces différents cas de figure et paramètres utilisés. Ces éléments de comparaison présentent le CTU, et notamment le CTU multisources, comme le critère le plus discriminant ; sa présence rajoute de la variabilité dans l’image permettant ainsi une segmentation plus nette, une classification à la fois plus détaillée et plus performante. En effet, la précision passe de 0.5 avec l’image Optique à 0.74 pour l’image CTU, alors que la confusion diminue en passant de 0.30 (dans l’Optique) à 0.02 (dans le CTU).
Resumo:
Abstract : This is a study concerning comparisons between the Dubovik Aerosol optical depth (AOD) retrievals from AEROCAN (ARONET) stations and AOD estimates from simulations provided by a chemical transport model (GEOS-Chem : Goddard Earth Observing System Chemistry). The AOD products associated with the Dubovik product are divided into total, fine and coarse mode components. The retrieval period is from January 2009 to January 2013 for 5 Arctic stations (Barrow, Alaska; Resolute Bay, Nunavut; 0PAL and PEARL (Eureka), Nunavut; and Thule, Greenland). We also employed AOD retrievals from 10 other mid-latitude Canadian stations for comparisons with the Arctic stations. The results of our investigation were submitted to Atmosphere-Ocean. To briefly summarize those results, the model generally but not always tended to underestimate the (monthly) averaged AOD and its components. We found that the subdivision into fine and coarse mode components could provide unique signatures of particular events (Asian dust) and that the means of characterizing the statistics (log-normal frequency distributions versus normal distributions) was an attribute that was common to both the retrievals and the model.
Resumo:
Au Québec, les réformes du système scolaire implantées depuis 2001 au primaire appellent à modifier considérablement la tâche des personnes enseignantes. L'appel au professionnalisme collectif s'oppose à une conception plus traditionnelle du travail de l'enseignant"seul devant ses élèves". Cette dimension du travail enseignant est également présente à l'intérieur de la formation initiale à l'enseignement (Gouvernement du Québec, 200 lb). Parmi les douze compétences professionnelles, deux d'entre elles se réfèrent au travail entre les personnes impliquées dans les apprentissages des élèves. Dans le domaine de l'éducation physique et à la santé (EPS) au primaire, un certain nombre de transformations observées depuis quelques années sont susceptibles d'influencer le travail entre personnes enseignantes. En effet, plusieurs spécialistes en éducation physique et à la santé sont de plus en plus fréquemment appelés à enseigner dans un contexte de co-enseignement (team teaching). Le programme de formation de l'école québécoise (Gouvernement du Québec, 200la) invite également les spécialistes d'éducation physique et à la santé à travailler à l'intérieur des équipes-cycles. Finalement, les spécialistes de l'ÉPS se sont vus attribuer la responsabilité du volet éducation à la santé à l'école par le biais de la compétence disciplinaire Adopter un mode de vie sain et actif . Depuis ces récentes transformations, les spécialistes en ÉPS sont davantage appelés à travailler avec des acteurs du milieu scolaire qu'auparavant. L'objectif général de cette étude est de comprendre comment des acteurs oeuvrant dans le domaine de l'ÉPS au primaire voient le"travailler ensemble" comme dimension du travail enseignant et comme objet de formation. Plus précisément, les questions de recherche sont liées aux thèmes suivants : 1) le sens que les acteurs du milieu scolaire donnent au concept du"travailler ensemble"; 2) les conditions et les obstacles à la mise en place et à l'accomplissement dû"travailler ensemble"; 3) la place qu'occupe la formation au"travailler ensemble" à l'intérieur du programme de formation à l'enseignement ciblé dans cette étude. Sur le plan conceptuel, cette étude est confrontée à la polysémie des terminologies des concepts qui font référence au"travailler ensemble". Dans cette optique, nous chercherons à définir les différents concepts qui s'y rapportent. Nous présenterons un modèle conceptuel du"travailler ensemble" à partir d'autres référents traitant du même thème. Le modèle conceptuel s'opérationnalisera selon deux concepts, soit celui d'intensité et celui d'interdépendance. Cette étude emprunte une approche de recherche qualitative de type interprétative, elle est menée auprès de onze (n = 11) acteurs du milieu scolaire (personnes enseignantes associées en EPS (n = 4), directions d'école (n = 2) et auprès d'acteurs issus d'un programme de formation à l'enseignement de l'ÉPS (stagiaires en EPS (n = 3), formateurs universitaires à l'enseignement (n = 2)). Il s'agit d'un échantillon non probabiliste de type critérié (Patton, 1990). Les résultats ont été recueillis par le biais de questionnaires sociodémographiques et d'entrevues semi-dirigées. La présence d'acteurs provenant de quatre catégories différentes nous permettra d'effectuer une triangulation par les sources d'informations (Savoie-Zajc et Karsenti, 2000). Les entrevues nous révèlent que les acteurs rencontrés ont diverses occasions de travailler avec leurs collègues à l'école et que les conditions varient selon le rôle occupé par les personnes (enseignantes d'une même discipline, enseignantes d'une discipline différente ou non enseignantes). Chez les spécialistes en EPS que nous avons rencontrés, nous observons que le travail entre collègues d'une même discipline dépasse les limites de l'école. Ce contexte s'avère propice au renforcement d'une identité professionnelle commune. Les acteurs rencontrés identifient des conditions favorables et défavorables au"travailler ensemble". Celles-ci prennent diverses formes. Elles sont tantôt de nature affective, organisationnelle ou identitaire. En ce qui concerne la place occupée par la formation au"travailler ensemble" à l'intérieur du programme d'ÉPS participant, il semble que les occasions de développer cette compétence soient plus pertinentes à l'intérieur des stages qu'à l'intérieur des cours donnés à l'université. Par contre, les occasions de"travailler ensemble" en stage varient en fonction du contexte d'intervention de la personne enseignante associée. Cette situation soulève un certain nombre d'interrogations se rapportant tant à la capacité de la personne enseignante à s'adapter aux récentes transformations de l'école québécoise qu'aux programmes actuels de formation à l'enseignement pour former les futures personnes enseignantes au"travailler ensemble". Cette étude contribuera de façon significative à l'accroissement des connaissances au regard du"travailler ensemble" à l'école et en formation à l'enseignement dans le contexte de l'ÉPS. Cette perspective n'a pas ou très peu été documentée par d'autres auteurs. Bien qu'elle ne conduise pas à une série de recommandations à l'intention des acteurs impliqués dans la formation à l'enseignement, cette étude contribue, à clarifier des concepts liés au"travailler ensemble" et à les articuler."--Résumé abrégé par UMI.
Resumo:
L'objet de cette recherche-action est la pratique de gestion des membres de la direction des écoles se situant dans la perspective de l'autodéveloppement. Plus d'une quarantaine d'entre eux, sur une période de deux années, se sont réunis dans des cercles d'analyse pour explorer leur pratique de gestion. Lorsque les membres de la direction agissent dans l'optique de l'autodéveloppement, ils se donnent le mandat d'organiser l'auto-organisation de l'école. Notre projet de recherche-action visait à explorer, avec eux, leurs modalités de gestion qui s'inspirent de cette vision. Il visait aussi à explorer des voies nouvelles permettant de mieux utiliser les marges d'action dont ils disposent. L'école est enchevêtrée dans une organisation d'organisations scolaires. La grande organisation scolaire l'intègre en tant que partie. Mais en tant qu'organisation spécifique, elle s'y différencie. À son tour, l'école devient un grand toit intégrant ses parties qui s'y différencient aussi. Les membres de la direction des écoles qui se réfèrent à l'autodéveloppernent veulent amplifier leur différenciation et celle de ses actrices et acteurs. Ils veulent aussi recourir à des modalités de coordination dites de concertation permettant cette différenciation. Les membres de la direction des écoles rencontrés dans les cercles participent et déterminent la mouvance organisationnelle actuellement vécue. Réussiront-ils à actualiser davantage les conceptions de pratique qui'ils avancent? L'idée de l'autodéveloppement est sous-jacente, sinon sous-entendue, à la mouvance organisationnelle vécue dans les écoles actuellement. L'apport principal de cette recherche-action est de rendre compte de pratiques et de conceptions de membres de direction d'école s'inscrivant dans cette idée. Notre cadre théorique, en proposant une articulation conceptuelle de cette vision de l'organisation, a permis de donner corps aux diverses et multiples pratiques et conceptions observées. Il a permis aussi d'y déceler des tendances. Cette articulation, en s'appuyant sur la nouvelle épistémologie de l'auto-organisation, offre une esquisse d'un cadre de référence pour la gestion des écoles. Son application pourrait être approfondie dans de nouvelles recherches-action."--Résumé abrégé par UMI
Resumo:
Résumé : La capacité de décider parmi plusieurs possibilités d'actions, grâce à l'information sensorielle disponible, est essentielle à un organisme interagissant avec un environnement complexe. Les modèles actuels de sélection d'une action soutiennent que le cerveau traite continuellement l'information sensorielle afin de planifier plusieurs possibilités d'action en parallèle. Dans cette perspective, ces représentations motrices, associées à chaque possibilité d'action, sont en constante compétition entre elles. Afin qu'une alternative puisse être sélectionnée pour le mouvement, une valeur de pondération, intégrant une multitude de facteurs, doit être associée à chacun des plans moteurs afin de venir moduler la compétition. Plusieurs études se sont intéressées aux différents facteurs modulant la sélection de l'action, tels que la disposition de l'environnement, le coût des actions, le niveau de récompense, etc. Par contre, il semble qu'aucune étude n'ait rapporté ce qu'il advient lorsque la valeur de pondération de chacune des actions possibles est identique. Dans ce contexte, quel est l'élément permettant de venir moduler la sélection de l'action? De ce fait, l'objectif principal de mon projet de maitrise est d'investiguer le facteur permettant au cerveau de sélectionner une action lorsque tous les facteurs rapportés dans la littérature sont contrôlés. De récentes données ont montré que les oscillations corticales lentes dans la bande delta peuvent servir d'instrument de sélection attentionnelle en modulant l'amplitude de la réponse neuronale. Ainsi, les stimuli arrivant dans le cortex pendant une phase en delta de forte excitabilité sont amplifiés, tandis que ceux arrivant lors d'une phase en delta de faible excitabilité sont atténués. Ceci dit, il est possible que la phase en delta dans laquelle se trouve le cerveau au moment d'effectuer la sélection d'une action puisse influencer la décision. Utilisant une tâche de sélection de main, cette étude teste l'hypothèse que la sélection de la main est associée à la phase en delta des ensembles neuronaux codant le mouvement de chacune des mains, lorsque tous les facteurs connus influençant la décision sont contrôlés. L'électroencéphalographie (EEG) fut utilisée afin d'enregistrer les signaux corticaux pendant que les participants effectuaient une tâche de sélection de main dans laquelle ils devaient, à chaque essai, atteindre une cible visuelle aussi rapidement que possible en utilisant la main de leur choix. La tâche fut conçue de façon à ce que les facteurs spatiaux et biomécaniques soient contrôlés. Ceci fut réalisé enidentifiant premièrement, sur une base individuelle, l'emplacement de la cible pour laquelle les mains droite et gauche avaient une probabilité équivalente d'être choisies (point d'égalité subjective, PSE). Ensuite, dans l'expérience principale, les participants effectuaient plusieurs mouvements d'atteinte vers des cibles positionnées près et loin du PSE, toujours avec la main de leur choix. L'utilisation de cinq cibles très près du PSE a permis de collecter de nombreux essais dans lesquels la main droite et la main gauche furent sélectionnées en réponse à un même stimulus visuel. Ceci a ainsi permis d'analyser les signaux des deux cortex dans des conditions d'utilisation de la main droite et gauche, tout en contrôlant pour les autres facteurs pouvant moduler la sélection de la main. Les résultats de cette recherche révèlent que l'hémisphère cortical se trouvant dans la phase la plus excitable en delta (près du pic négatif), lors de l'apparition du stimulus, est associé à la fois à la main qui sera sélectionnée ainsi qu'au temps de réaction. Ces résultats montrent que l'excitabilité corticale momentanée (phase du signal) pourrait agir comme un facteur modulant la sélection d'une action. Dans cette optique, ces données élargissent considérablement les modèles actuels en montrant que la sélection d'une action est en partie déterminée par l'état du cerveau au moment d'effectuer un choix, d'une manière qui est indépendante de toutes les variables de décision connues.
Resumo:
Abstract : Wastepaper sludge ash (WSA) is generated by a cogeneration station by burning wastepaper sludge. It mainly consists of amorphous aluminosilicate phase, anhydrite, gehlenite, calcite, lime, C2S, C3A, quartz, anorthite, traces of mayenite. Because of its free lime content (~10%), WSA suspension has a high pH (13). Previous researchers have found that the WSA composition has poor robustness and the variations lead to some unsoundness for Portland cement (PC) blended WSA concrete. This thesis focused on the use of WSA in different types of concrete mixes to avoid the deleterious effect of the expansion due to the WSA hydration. As a result, WSA were used in making alkali-activated materials (AAMs) as a precursor source and as a potential activator in consideration of its amorphous content and the high alkaline nature. Moreover, the autogenous shrinkage behavior of PC concrete at low w/b ratio was used in order to compensate the expansion effect due to WSA. The concrete properties as well as the volume change were investigated for the modified WSA blended concrete. The reaction mechanism and microstructure of newly formed binder were evaluated by X-ray diffraction (XRD), calorimetry, thermogravimetric analysis (TGA), scanning electron microscopy (SEM) and energy dispersive X-ray spectroscopy (EDX). When WSA was used as precursor, the results showed incompatible reaction between WSA and alkaline solution. The mixtures were not workable and provided very low compressive strength no matter what kinds of chemical activators were used. This was due to the metallic aluminum in WSA, which releases abundant hydrogen gas when WSA reacts with strong alkaline solution. Besides, the results of this thesis showed that WSA can activate the glassy phase contained in slag, glass powder (GP) and class F fly ash (FFA) with an optimum blended ratio of 50:50. The WSA/slag (mass ratio of 50:50) mortar (w/b of 0.47) attained 46 MPa at 28 days without heat curing assistance. A significant fast setting was noticed for the WSA-activated binder due to the C3A phase, free lime and metallic aluminum contained in the WSA. Adding 5% of gypsum can delay the fast setting, but this greatly increased the potential risk of intern sulfate attack. The XRD, TGA and calorimetry analyses demonstrated the formation of ettringite, C-S-H, portlandite, hydrogarnet and calcium carboaluminate in the hydrated binder. The mechanical performance of different binder was closely related to the microstructure of corresponding binder which was proved by the SEM observation. The hydrated WSA/slag and WSA/FFA binder formed a C-A-S-H type of gel with lower Ca/Si ratio (0.47~1.6). A hybrid gel (i.e. C-N-A-S-H) was observed for the WSA/GP binder with a very low Ca/Si ratio (0.26) and Na/Si ratio (0.03). The SEM/EDX analyses displayed the formation of expansive gel (ettringite and thaumasite) in the gypsum added WSA/slag concrete. The gradual emission of hydrogen gas due to the reaction of WSA with alkaline environment significantly increased the porosity and degraded the microstructure of hydrated matrix after the setting. In the last phase of this research WSA-PC blended binder was tailored to form a high autogenous shrinkage concrete in order to compensate the initial expansion. Different binders were proportioned with PC, WSA, silica fume or slag. The microstructure and mechanical properties of concrete can be improved by decreasing w/b ratios and by incorporating silica fume or slag. The 28-day compressive strength of WSA-blended concrete was above 22 MPa and reached 45 MPa when silica fume was added. The PC concrete incorporating silica fume or slag tended to develop higher autogenous shrinkage at low w/b ratios, and thus the ternary binder with the addition of WSA inhibited the long term shrinkage due to the initial expansion property to WSA. In the restrained shrinkage test, the concrete ring incorporating the ternary binder (PC/WSA/slag) revealed negligible potential to cracking up to 96 days as a result of the offset effect by WSA expansion. The WSA blended regular concrete could be produced for potential applications with reduced expansion, good mechanical property and lower permeability.
Resumo:
L’interaction physique humain-robot est un domaine d’étude qui s’est vu porter beaucoup d’intérêt ces dernières années. Une optique de coopération entre les deux entités entrevoit le potentiel d’associer les forces de l’humain (comme son intelligence et son adaptabilité) à celle du robot (comme sa puissance et sa précision). Toutefois, la mise en service des applications développées reste une opération délicate tant les problèmes liés à la sécurité demeurent importants. Les robots constituent généralement de lourdes machines capables de déplacements très rapides qui peuvent blesser gravement un individu situé à proximité. Ce projet de recherche aborde le problème de sécurité en amont avec le développement d’une stratégie dite "pré-collision". Celle-ci se caractérise par la conception d’un système de planification de mouvements visant à optimiser la sécurité de l’individu lors de tâches d’interaction humain-robot dans un contexte industriel. Pour ce faire, un algorithme basé sur l’échantillonnage a été employé et adapté aux contraintes de l’application visée. Dans un premier temps, l’intégration d’une méthode exacte de détection de collision certifie que le chemin trouvé ne présente, a priori, aucun contact indésirable. Ensuite, l’évaluation de paramètres pertinents introduit notre notion de sécurité et définit un ensemble d’objectifs à optimiser. Ces critères prennent en compte la proximité par rapport aux obstacles, l’état de conscience des êtres humains inclus dans l’espace de travail ainsi que le potentiel de réaction du robot en cas d'évènement imprévu. Un système inédit de combinaison d’objectifs guide la recherche et mène à l’obtention du chemin jugé comme étant le plus sûr, pour une connaissance donnée de l’environnement. Le processus de contrôle se base sur une acquisition minimale de données environnementales (dispositif de surveillance visuelle) dans le but de nécessiter une installation matérielle qui se veut la plus simple possible. Le fonctionnement du système a été validé sur le robot industriel Baxter.
Resumo:
L’eau est un enjeu majeur en environnement autant d’un point de vue de sa qualité que de sa quantité. Cependant, des pénuries d’eau douce se font de plus en plus sentir à travers le monde. Par ailleurs, les États-Unis n’en sont pas exemptés. En effet, l’ouest du pays constate que les réserves diminuent constamment. Dans le passé, une compagnie californienne s’était déjà tournée vers le Canada afin d’en acheter une certaine quantité en vrac dans le dessein d’en assurer son approvisionnement. Le Québec, étant un voisin des Américains, ne peut se permettre d’écarter la question de l’exportation d’eau en vrac, d’autant plus qu’il est évident qu’une activité de cette envergure crée des impacts sur l’environnement et la société. C’est pourquoi cet essai a pour objectif d’identifier si la vente de l’eau douce en vrac du Québec vers les États-Unis implique des conséquences pour les citoyens québécois. Une analyse multicritère a été réalisée afin d’atteindre l’objectif principal de cet l’essai. Cette dernière consiste en l’évaluation des différents aspects de l’exportation d’eau douce selon une optique sociale. Ainsi, neuf critères ont été créés. Ils sont répartis en quatre catégories, soit sociale, économique, législative et les relations internationales. Suite aux résultats obtenus lors de l’évaluation des critères, il est possible d’affirmer que la vente de l’eau québécoise aurait des incidences sur la population. Cette analyse nous permet de conclure que, d’un côté, les citoyens accordent une grande valeur à la ressource et qu’ils seraient plutôt d’accord à exporter l’eau. Néanmoins, d’un autre côté, les critères concernant la relation de pouvoir entre le pays amont et celui aval ainsi que les conséquences qu’implique l’Accord de libre-échange nord-américain viennent causer des répercussions négatives pour les citoyens. Les principales conséquences négatives concernent davantage le milieu international. Par contre, le Québec a peu ou pas d’influence à ce niveau, c’est pourquoi l’ensemble des recommandations effectuées porte sur des dispositions que la province pourrait envisager à l’interne afin de limiter les incidences sur sa population et son environnement. L’accent est donc mis sur des mesures permettant de mieux gérer la ressource et de la consommer de manière responsable. Ainsi, il est recommandé de mettre en place une gestion intégrée de l’eau par bassin versant, de fixer une quantité maximale pour l’exportation, d’installer des compteurs d’eau, de revoir la facturation de l’eau et, finalement, communiquer l’information aux citoyens dans l’optique de les renseigner, mais aussi de les impliquer dans la protection de l’eau au Québec.
Resumo:
La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.
Resumo:
Les matériaux composites sont utilisés dans beaucoup de domaines pour leurs propriétés mécaniques spécifiques, leur mise en forme facile et leur bas coût. Cependant, lorsque les composites pétro-sourcées sont en fin de vie, le traitement des déchets a un fort impact environnemental. C’est pour cette raison que les industriels se tournent vers des matériaux bio-sourcés. Ils souhaitent ainsi abaisser le coût des matières premières mais aussi se donner une image plus « verte » grâce à l’utilisation de matériaux renouvelables et/ou compostables. Le projet présenté s’inscrit dans dans cette optique où il est question d’élaborer de nouveaux composites à renfort et matrices bio-sourcés et tout particulièrement des composites fibre de lin/acide polylactique (PLA). Ces derniers sont généralement appelés bio-composites. L’originalité de cette étude réside dans le traitement des fibres de lin afin de les compatibilité avec la matrice PLA. Le traitement consiste au greffage de dioxyde de titane sur la surface de fibres de lin fonctionnalisée par oxydation au TEMPO. Ces fibres longues sont ensuite utilisées comme renfort sous forme de tissu unidirectionnel dans la matrice PLA. Le comportement mécanique en traction, flexion et la résistance à l’impact de ces biocomposites sont étudiés afin d’analyser l’influence du traitement des fibres sur leur performances.
Resumo:
Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.