114 resultados para capteurs métalliques
Resumo:
Abstract : The major objective of our study is to investigate DNA damage induced by soft X-rays (1.5 keV) and low-energy electrons (˂ 30 eV) using a novel irradiation system created by Prof. Sanche’s group. Thin films of double-stranded DNA are deposited on either glass and tantalum substrates and irradiated under standard temperature and pressure surrounded by a N[subscript 2] environment. Base release (cytosine, thymine, adenine and guanine) and base modifications (8-oxo-7,8-dihydro -2’-deoxyguanosine, 5-hydroxymethyl-2’-deoxyuridine, 5-formyl-2’-deoxyuridine, 5,6-dihydrothymidine and 5,6-dihydro-2’-deoxy uridine) are analyzed and quantified by LC-MS/MS. Our results reveal larger damage yields in the sample deposited on tantalum than those on glass. This can be explained by an enhancement of damage due to low-energy electrons, which are emitted from the metal substrate. From a comparison of the yield of products, base release is the major type of damage especially for purine bases, which are 3-fold greater than base modifications. A proposed pathway leading to base release involves the formation of a transient negative ion (TNI) followed by dissociative electron attachment (DEA) at the N-g lycosidic bond. On the other hand, base modification products consist of two major types of chemical modifications, which include thymine methyl oxidation products that likely arises from DEA from the methyl group of thymine, and 5,6-dihydropyrimidine that can involve the initial addition of electrons, H atoms, or hydride ions to the 5,6-pyrimidine double bond.
Resumo:
La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.
Resumo:
Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations.
Resumo:
Résumé : Le transistor monoélectronique (SET) est un dispositif nanoélectronique très attractif à cause de son ultra-basse consommation d’énergie et sa forte densité d’intégration, mais il n’a pas les capacités suffisantes pour pouvoir remplacer complètement la technologie CMOS. Cependant, la combinaison de la technologie SET avec celle du CMOS est une voie intéressante puisqu’elle permet de profiter des forces de chacune, afin d’obtenir des circuits avec des fonctionnalités additionnelles et uniques. Cette thèse porte sur l’intégration 3D monolithique de nanodispositifs dans le back-end-of-line (BEOL) d’une puce CMOS. Cette approche permet d’obtenir des circuits hybrides et de donner une valeur ajoutée aux puces CMOS actuelles sans altérer le procédé de fabrication du niveau des transistors MOS. L’étude se base sur le procédé nanodamascène classique développé à l’UdeS qui a permis la fabrication de dispositifs nanoélectroniques sur un substrat de SiO2. Ce document présente les travaux réalisés sur l’optimisation du procédé de fabrication nanodamascène, afin de le rendre compatible avec le BEOL de circuits CMOS. Des procédés de gravure plasma adaptés à la fabrication de nanostructures métalliques et diélectriques sont ainsi développés. Le nouveau procédé nanodamascène inverse a permis de fabriquer des jonctions MIM et des SET métalliques sur une couche de SiO2. Les caractérisations électriques de MIM et de SET formés avec des jonctions TiN/Al2O3 ont permis de démontrer la présence de pièges dans les jonctions et la fonctionnalité d’un SET à basse température (1,5 K). Le transfert de ce procédé sur CMOS et le procédé d’interconnexions verticales sont aussi développés par la suite. Finalement, un circuit 3D composé d’un nanofil de titane connecté verticalement à un transistor MOS est réalisé et caractérisé avec succès. Les résultats obtenus lors de cette thèse permettent de valider la possibilité de co-intégrer verticalement des dispositifs nanoélectroniques avec une technologie CMOS, en utilisant un procédé de fabrication compatible.
Resumo:
Résumé : Malgré le nombre croissant de capteurs dans les domaines de la chimie et la biologie, il reste encore à étudier en profondeur la complexité des interactions entre les différentes molécules présentes lors d’une détection à l’interface solide-liquide. Dans ce cadre, il est de tout intérêt de croiser différentes méthodes de détection afin d’obtenir des informations complémentaires. Le principal objectif de cette étude est de dimensionner, fabriquer et caractériser un détecteur optique intégré sur verre basé sur la résonance plasmonique de surface, destiné à terme à être combiné avec d’autres techniques de détection, dont un microcalorimètre. La résonance plasmonique de surface est une technique reconnue pour sa sensibilité adaptée à la détection de surface, qui a l’avantage d’être sans marquage et permet de fournir un suivi en temps réel de la cinétique d’une réaction. L’avantage principal de ce capteur est qu’il a été dimensionné pour une large gamme d’indice de réfraction de l’analyte, allant de 1,33 à 1,48. Ces valeurs correspondent à la plupart des entités biologiques associées à leurs couches d’accroche dont les matrices de polymères, présentés dans ce travail. Étant donné que beaucoup d’études biologiques nécessitent la comparaison de la mesure à une référence ou à une autre mesure, le second objectif du projet est d’étudier le potentiel du système SPR intégré sur verre pour la détection multi-analyte. Les trois premiers chapitres se concentrent sur l’objectif principal du projet. Le dimensionnement du dispositif est ainsi présenté, basé sur deux modélisations différentes, associées à plusieurs outils de calcul analytique et numérique. La première modélisation, basée sur l’approximation des interactions faibles, permet d’obtenir la plupart des informations nécessaires au dimensionnement du dispositif. La seconde modélisation, sans approximation, permet de valider le premier modèle approché et de compléter et affiner le dimensionnement. Le procédé de fabrication de la puce optique sur verre est ensuite décrit, ainsi que les instruments et protocoles de caractérisation. Un dispositif est obtenu présentant des sensibilités volumiques entre 1000 nm/RIU et 6000 nm/RIU suivant l’indice de réfraction de l’analyte. L’intégration 3D du guide grâce à son enterrage sélectif dans le verre confère au dispositif une grande compacité, le rendant adapté à la cointégration avec un microcalorimètre en particulier. Le dernier chapitre de la thèse présente l’étude de plusieurs techniques de multiplexage spectral adaptées à un système SPR intégré, exploitant en particulier la technologie sur verre. L’objectif est de fournir au moins deux détections simultanées. Dans ce cadre, plusieurs solutions sont proposées et les dispositifs associés sont dimensionnés, fabriqués et testés.
Resumo:
Face à la diminution des ressources énergétiques et à l’augmentation de la pollution des énergies fossiles, de très nombreuses recherches sont actuellement menées pour produire de l’énergie propre et durable et pour réduire l’utilisation des sources d’énergies fossiles caractérisées par leur production intrinsèque des gaz à effet de serre. La pile à combustible à membrane échangeuse de protons (PEMFC) est une technologie qui prend de plus en plus d’ampleur pour produire l’énergie qui s’inscrit dans un contexte de développement durable. La PEMFC est un dispositif électrochimique qui fonctionne selon le principe inverse de l’électrolyse de l’eau. Elle convertit l’énergie de la réaction chimique entre l’hydrogène et l’oxygène (ou l’air) en puissance électrique, chaleur et eau; son seul rejet dans l’atmosphère est de la vapeur d’eau. Une pile de type PEMFC est constituée d’un empilement Électrode-Membrane-Électrode (EME) où la membrane consiste en un électrolyte polymère solide séparant les deux électrodes (l’anode et la cathode). Cet ensemble est intégré entre deux plaques bipolaires (BP) qui permettent de collecter le courant électrique et de distribuer les gaz grâce à des chemins de circulation gravés sur chacune de ses deux faces. La plupart des recherches focalisent sur la PEMFC afin d’améliorer ses performances électriques et sa durabilité et aussi de réduire son coût de production. Ces recherches portent sur le développement et la caractérisation des divers éléments de ce type de pile; y compris les éléments les plus coûteux et les plus massifs, tels que les plaques bipolaires. La conception de ces plaques doit tenir compte de plusieurs paramètres : elles doivent posséder une bonne perméabilité aux gaz et doivent combiner les propriétés de résistance mécanique, de stabilité chimique et thermique ainsi qu’une conductivité électrique élevée. Elles doivent aussi permettre d’évacuer adéquatement la chaleur générée dans le cœur de la cellule. Les plaques bipolaires métalliques sont pénalisées par leur faible résistance à la corrosion et celles en graphite sont fragiles et leur coût de fabrication est élevé (dû aux phases d’usinage des canaux de cheminement des gaz). C’est pourquoi de nombreuses recherches sont orientées vers le développement d’un nouveau concept de plaques bipolaires. La voie la plus prometteuse est de remplacer les matériaux métalliques et le graphite par des composites à matrice polymère. Les plaques bipolaires composites apparaissent attrayantes en raison de leur facilité de mise en œuvre et leur faible coût de production mais nécessitent une amélioration de leurs propriétés électriques et mécaniques, d’où l’objectif principal de cette thèse dans laquelle on propose: i) un matériau nanocomposite développé par extrusion bi-vis qui est à base de polymères chargés d’additifs solides conducteurs, incluant des nanotubes de carbone. ii) fabriquer un prototype de plaque bipolaire à partir de ces matériaux en utilisant le procédé de compression à chaud avec un refroidissement contrôlé. Dans ce projet, deux polymères thermoplastiques ont été utilisés, le polyfluorure de vinylidène (PVDF) et le polyéthylène téréphtalate (PET). Les charges électriquement conductrices sélectionnées sont: le noir de carbone, le graphite et les nanotubes de carbones. La combinaison de ces charges conductrices a été aussi étudiée visant à obtenir des formulations optimisées. La conductivité électrique à travers l’épaisseur des échantillons développés ainsi que leurs propriétés mécaniques ont été soigneusement caractérisées. Les résultats ont montré que non seulement la combinaison entre les charges conductrices influence les propriétés électriques et mécaniques des prototypes développés, mais aussi la distribution de ces charges (qui de son côté dépend de leur nature, leur taille et leurs propriétés de surface), avait aidé à améliorer les propriétés visées. Il a été observé que le traitement de surface des nanotubes de carbone avait aidé à l’amélioration de la conductivité électrique et la résistance mécanique des prototypes. Le taux de cristallinité généré durant le procédé de moulage par compression des prototypes de plaques bipolaires ainsi que la cinétique de cristallisation jouent un rôle important pour l’optimisation des propriétés électriques et mécaniques visées.
Resumo:
Les lacs de thermokarst (lacs peu profonds créés par le dégel et l’érosion du pergélisol riche en glace) sont un type unique d’écosystèmes aquatiques reconnus comme étant de grands émetteurs de gaz à effet de serre vers l’atmosphère. Ils sont abondants dans le Québec subarctique et ils jouent un rôle important à l’échelle de la planète. Dans certaines régions, les lacs de thermokarst se transforment rapidement et deviennent plus grands et plus profonds. L’objectif de cette étude était d’améliorer la compréhension et d’évaluer quelles variables sont déterminantes pour la dynamique de l’oxygène dans ces lacs. C’est pourquoi j’ai examiné les possibles changements futurs de la dynamique de l’oxygène dans ces lacs dans un contexte de réchauffement climatique. Une grande variété de méthodes ont été utilisées afin de réaliser cette recherche, dont des analyses in situ et en laboratoire, ainsi que la modélisation. Des capteurs automatisés déployés dans cinq lacs ont mesuré l’oxygène, la conductivité et la température de la colonne d’eau en continu de l’été 2012 jusqu’à l’été 2015, à des intervalles compris entre 10 à 60 minutes. Des analyses en laboratoire ont permis de déterminer la respiration et les taux de production bactériens, les variables géochimiques limnologiques, ainsi que la distribution de la production bactérienne entre les différentes fractions de taille des communautés. La température de l’eau et les concentrations d’oxygène dissous d’un lac de thermokarst ont été modélisées avec des données du passé récent (1971) au climat futur (2095), en utilisant un scénario modéré (RCP 4.5) et un scénario plus extrême (RCP 8.5) de réchauffement climatique. Cette recherche doctorale a mis en évidence les conditions anoxiques fréquentes et persistantes présentes dans de nombreux lacs de thermokarst. Aussi, ces lacs sont stratifiés pendant l’hiver comme des concentrations élevées d’ions s’accumulent dans leurs hypolimnions à cause de la formation du couvert de glace (cryoconcentration) et de la libération des ions avec la respiration bactérienne. Les différences de température contribuent également à la stabilité de la stratification. La dynamique de mélange des lacs de thermokarst étudiés était contrastée : la colonne d’eau de certains lacs se mélangeait entièrement deux fois par année, d’autres lacs se mélangeaient qu’une seule fois en automne, alors que certains lacs ne se mélangeaient jamais entièrement. Les populations bactériennes étaient abondantes et très actives, avec des taux respiratoires comparables à ceux mesurés dans des écosystèmes méso-eutrophes ou eutrophes des zones tempérées de l’hémisphère nord. L’érosion des matériaux contenus dans le sol des tourbières pergélisolées procure un substrat riche en carbone et en éléments nutritifs aux populations bactériennes, et ils constituent des habitats propices à la colonisation par des populations de bactéries associées aux particules. Le modèle de la concentration d’oxygène dissous dans un lac a révélé que le réchauffement des températures de l’air pourrait amincir le couvert de glace et diminuer sa durée, intensifiant le transfert de l’oxygène atmosphérique vers les eaux de surface. Ainsi, la concentration en oxygène dissous dans la colonne d’eau de ce lac augmenterait et les périodes de conditions anoxiques pourraient devenir plus courtes. Finalement, cette thèse doctorale insiste sur le rôle des lacs de thermokarst comme des réacteurs biogéochimiques pour la dégradation du carbone organique, qui était retenu dans les sols gelés, en gaz à effet de serre libérés dans l’atmosphère. L’oxygène est un indicateur sensible du mélange de la colonne d’eau et de la dynamique chimique des lacs, en plus d’être une variable clé des processus métaboliques.
Resumo:
La présente thèse propose une étude expérimentale du décollement dans le diffuseur d’un modèle de turbine hydroélectrique bulbe. Le décollement se produit quand la turbine est opérée à forte charge et il réduit la section effective de récupération du diffuseur. La diminution de la performance du diffuseur à forte charge engendre une baisse brusque de l’efficacité de la turbine et de la puissance extraite. Le modèle réduit de bulbe est fidèle aux machines modernes avec un diffuseur particulièrement divergent. Les performances de la turbine sont mesurées sur une large gamme de points d’opération pour déterminer les conditions les plus intéressantes pour l’étude du décollement et pour étudier la distribution paramétrique de ce phénomène. La pression est mesurée le long de l’aspirateur par des capteurs dynamiques affleurants alors que les champs de vitesse dans la zone de décollement sont mesurés avec une méthode PIV à deux composantes. Les observations à la paroi sont pour leur part faites à l’aide de brins de laine. Pour un débit suffisant, le gradient de pression adverse induit par la géométrie du diffuseur affaiblit suffisamment la couche limite, entraînant ainsi l’éjection de fluide de la paroi le long d’une large enveloppe tridimensionelle. Le décollement instationnaire tridimensionnel se situe dans la même zone du diffuseur indépendamment du point d’opération. L’augmentation du débit provoque à la fois une extension de la zone de décollement et une augmentation de l’occurrence de ses manifestations. La position et la forme du front de décollement fluctue significativement sans périodicité. L’analyse topologique et celle des tourbillons des champs de vitesse instantanés montrent une topologie du front de décollement complexe qui diffère beaucoup d’une réalisation à l’autre. Bien que l’écoulement soit turbulent, les tourbillons associés aux foyers du front sont clairement plus gros et plus intenses que ceux de la turbulence. Cela suggère que le mécanisme d’enroulement menant aux tourbillons du décollement est clairement distinct des mécanismes de la turbulence.
Resumo:
Les éléments des ponts en acier sont exposés à de sévères conditions environnementales, tel l’épandage de sels déglaçant sur les routes. Ces éléments ont besoin d’un niveau suffisant de protection contre la corrosion afin de préserver leur intégrité à long terme. Une solution efficace, devenue populaire au Canada, est la métallisation. La métallisation est un revêtement anticorrosion formé par projection thermique de métal, généralement du zinc, sur la surface à protéger. La protection fournie au substrat d’acier est assurée par une barrière physique et une protection galvanique. Pour le calcul des assemblages boulonnés antiglissement, les codes de conception, tel le code Canadien sur le calcul des ponts routiers CAN/CSA S6-14, spécifient, en fonction des conditions des surfaces de contact désirées, un coefficient de glissement à utiliser. Actuellement, ces codes ne fournissent aucun coefficient de glissement entre deux surfaces métallisées. Donc, il est pratique courante pour les fabricants de ponts en acier de masquer les surfaces de contact des joints boulonnés avant de métalliser, ce qui est très couteux pour l’industrie puisque ce travail doit se faire manuellement. Récemment, des études ont évalué la résistance au glissement à court terme d’assemblages antiglissement ayant des surfaces de contact métallisées. Les résultats ont révélé une résistance au glissement supérieure aux assemblages sur acier nu grenaillés. Dans la présente recherche, la performance en fluage des assemblages antiglissement métallisés a été caractérisée pour s’assurer qu’une résistance en glissement de Classe B soit toujours valide à long terme. L’effet de la relaxation de la force de serrage sur la charge de glissement a aussi été évalué. Les résultats ont démontré une bonne performance en fluage. Aussi, les résultats ont révélé que la relaxation de la force de serrage n’a pas d’impact significatif sur la résistance au glissement des assemblages antiglissement métallisés. Les conclusions de cette étude pourraient bien influencer de futures révisions des codes de conception et avoir un impact sur l’industrie de l’acier en Amérique du Nord.Mots clés : Assemblage boulonné antiglissement, métallisation, pont routier en acier, fluage, relaxation
Resumo:
Le présent rapport constitue une première présentation des résultats de l'Etude pilote des apports en contaminants par la Seine. Il est consacré aux métaux et à l'arsenic et traite de leurs niveaux de concentration, de leurs variations saisonnières et des flux à l'estuaire. Il comporte des fiches-annexes qui contiennent les méthodes de prélèvement, de filtration et de dosage ainsi que des résumés des résultats. A partir des conclusions, des recommandations sont faites quant aux méthodes à privilégier pour tirer les meilleurs enseignements du suivi des contaminants métalliques et de l'arsenic à la limite amont de l'estuaire de la Seine. Les données contenues dans ce rapport ont été produites par la Cellule de lutte contre la pollution (Service de navigation de la Seine), le laboratoire Chimie des contaminants et modélisation (IFREMER) et le Laboratoire municipal et régional de Rouen.
Resumo:
La catalyse joue un rôle essentiel dans de nombreuses applications industrielles telles que les industries pétrochimique et biochimique, ainsi que dans la production de polymères et pour la protection de l’environnement. La conception et la fabrication de catalyseurs efficaces et rentables est une étape importante pour résoudre un certain nombre de problèmes des nouvelles technologies de conversion chimique et de stockage de l’énergie. L’objectif de cette thèse est le développement de voies de synthèse efficaces et simples pour fabriquer des catalyseurs performants à base de métaux non nobles et d’examiner les aspects fondamentaux concernant la relation entre structure/composition et performance catalytique, notamment dans des processus liés à la production et au stockage de l’hydrogène. Dans un premier temps, une série d’oxydes métalliques mixtes (Cu/CeO2, CuFe/CeO2, CuCo/CeO2, CuFe2O4, NiFe2O4) nanostructurés et poreux ont été synthétisés grâce à une méthode améliorée de nanocasting. Les matériaux Cu/CeO2 obtenus, dont la composition et la structure poreuse peuvent être contrôlées, ont ensuite été testés pour l’oxydation préférentielle du CO dans un flux d’hydrogène dans le but d’obtenir un combustible hydrogène de haute pureté. Les catalyseurs synthétisés présentent une activité et une sélectivité élevées lors de l’oxydation sélective du CO en CO2. Concernant la question du stockage d’hydrogène, une voie de synthèse a été trouvée pour le composét mixte CuO-NiO, démontrant une excellente performance catalytique comparable aux catalyseurs à base de métaux nobles pour la production d’hydrogène à partir de l’ammoniaborane (aussi appelé borazane). L’activité catalytique du catalyseur étudié dans cette réaction est fortement influencée par la nature des précurseurs métalliques, la composition et la température de traitement thermique utilisées pour la préparation du catalyseur. Enfin, des catalyseurs de Cu-Ni supportés sur silice colloïdale ou sur des particules de carbone, ayant une composition et une taille variable, ont été synthétisés par un simple procédé d’imprégnation. Les catalyseurs supportés sur carbone sont stables et très actifs à la fois dans l’hydrolyse du borazane et la décomposition de l’hydrazine aqueuse pour la production d’hydrogène. Il a été démontré qu’un catalyseur optimal peut être obtenu par le contrôle de l’effet bi-métallique, l’interaction métal-support, et la taille des particules de métal.
Resumo:
Une structure en béton armé est sujette à différents types de sollicitations. Les tremblements de terre font partie des événements exceptionnels qui induisent des sollicitations extrêmes aux ouvrages. Pour faire face à cette problématique, les codes de calcul des ponts routiers font appel à une approche basée sur des niveaux de performance qui sont rattachés à des états limites. Actuellement, les états limites d'une pile de ponts en béton armé (BA) confinée à l'aide de polymères renforcés de fibres de carbone (PRFC) proposés dans la littérature ne prennent pas en compte le confinement lié au chemisage de PRFC en combinaison avec celui des spirales d'acier. Ce projet de recherche était la suite du volet de contrôle non destructif d'une étude réalisée en 2012 qui comprenait un volet expérimental [Carvalho, 2012] et un volet numérique [Jean, 2012]. L'objectif principal était de compléter l'étude du comportement des poteaux en BA renforcés de PRFC soumis à un chargement cyclique avec les données acoustiques recueillies par St-Martin [2014]. Plus précisément, les objectifs spécifiques étaient de déterminer les états limites reliés aux niveaux de performance et de caractériser la signature acoustique de chaque état limite (p. ex. fissuration du béton, plastification de l'acier et rupture du PRFC). Une méthodologie d'analyse acoustique basée sur l'état de l'art de Behnia et al. [2014] a été utilisée pour quantifier la gravité, localiser et caractériser le type de dommages. Dans un premier temps, les données acoustiques provenant de poutres de 550 mm x 150 mm x 150 mm ont permis de caractériser la signature acoustique des états limites. Puis, des cinq spécimens d'essai construits en 2012, les données acoustiques de trois spécimens, soient des poteaux circulaires d'un diamètre de 305 mm et d'une hauteur de 2000 mm ont été utilisée pour déterminer les états limites. Lors de ces essais, les données acoustiques ont été recueillies avec 14 capteurs de résonances qui étaient reliés à un système multicanal et au logiciel AEwin SAMOS 5.23 de Physical Acoustics Corporation (PAC) [PAC, 2005] par St-Martin [2014]. Une analyse de la distribution des paramètres acoustiques (nbr. de comptes et énergie absolue) combiné à la localisation des événements et le regroupement statistique, communément appelé clustering, ont permis de déterminer les états limites et même, des signes précurseurs à l'atteinte de ces états limites (p. ex. l'initiation et la propagation des fissures, l'éclatement de l'enrobage, la fissuration parallèle aux fibres et l'éclatement du PRFC) qui sont rattachés aux niveaux de performances des poteaux conventionnels et confinés de PRFC. Cette étude a permis de caractériser la séquence d'endommagement d'un poteau en BA renforcé de PRFC tout en démontrant l'utilité de l'écoute acoustique pour évaluer l'endommagement interne des poteaux en temps réel. Ainsi, une meilleure connaissance des états limites est primordiale pour intégrer les PRFC dans la conception et la réhabilitation des ouvrages.
Resumo:
Abstract : Natural materials have received a full attention in many applications because they are degradable and derived directly from earth. In addition to these benefits, natural materials can be obtained from renewable resources such as plants (i.e. cellulosic fibers like flax, hemp, jute, and etc). Being cheap and light in weight, the cellulosic natural fiber is a good candidate for reinforcing bio-based polymer composites. However, the hydrophilic nature -resulted from the presence of hydroxyl groups in the structure of these fibers- restricts the application of these fibers in the polymeric matrices. This is because of weak interfacial adhesion, and difficulties in mixing due to poor wettability of the fibers within the matrices. Many attempts have been done to modify surface properties of natural fibers including physical, chemical, and physico-chemical treatments but on the one hand, these treatments are unable to cure the intrinsic defects of the surface of the fibers and on the other hand they cannot improve moisture, and alkali resistance of the fibers. However, the creation of a thin film on the fibers would achieve the mentioned objectives. This study aims firstly to functionalize the flax fibers by using selective oxidation of hydroxyl groups existed in cellulose structure to pave the way for better adhesion of subsequent amphiphilic TiO[subscript 2] thin films created by Sol-Gel technique. This method is capable of creating a very thin layer of metallic oxide on a substrate. In the next step, the effect of oxidation on the interfacial adhesion between the TiO[subscript 2] film and the fiber and thus on the physical and mechanical properties of the fiber was characterized. Eventually, the TiO[subscript 2] grafted fibers with and without oxidation were used to reinforce poly lactic acid (PLA). Tensile, impact, and short beam shear tests were performed to characterize the mechanical properties while Thermogravimetric analysis (TGA), Differential Scanning Calorimetry (DSC), Dynamic mechanical analysis (DMA), and moisture absorption were used to show the physical properties of the composites. Results showed a significant increase in physical and mechanical properties of flax fibers when the fibers were oxidized prior to TiO[subscript 2] grafting. Moreover, the TiO[subscript 2] grafted oxidized fiber caused significant changes when they were used as reinforcements in PLA. A higher interfacial strength and less amount of water absorption were obtained in comparison with the reference samples.
Resumo:
This document does NOT address the issue of chlorophyll-a quality control (either real-time or delayed mode). As a preliminary step towards that goal, this document seeks to ensure that all countries deploying floats equipped with chlorophyll-a sensors document the data and metadata related to these floats properly. We produced this document in response to action item 3 from the first Bio-Argo Data Management meeting in Hyderabad (November 12-13, 2012). If the recommendations contained herein are followed, we will end up with a more uniform set of chlorophyll-a data within the Bio-Argo data system, allowing users to begin analyzing not only their own chlorophyll-a data, but also those of others, in the true spirit of Argo data sharing.
Resumo:
Ce projet de recherche, intitulé Téléopération d'un robot collaboratif par outil haptique traite un des problèmes contemporains de la robotique, à savoir la coopération entre l'humain et la machine. La robotique est en pleine expansion depuis maintenant deux décennies: les robots investissent de plus en plus l'industrie, les services ou encore l'assistance à la personne et se diversifient considérablement. Ces nouvelles tendances font sortir les robots des cages dans lesquelles ils étaient placés et ouvrent grand la porte vers de nouvelles applications. Parmi elles, la coopération et les interactions avec l'humain représentent une réelle opportunité pour soulager l'homme dans des tâches complexes, fastidieuses et répétitives. En parallèle de cela, la robotique moderne s'oriente vers un développement massif du domaine humanoïde. Effectivement, plusieurs expériences sociales ont montré que l'être humain, constamment en interaction avec les systèmes qui l'entourent, a plus de facilités à contribuer à la réalisation d'une tâche avec un robot d'apparence humaine plutôt qu'avec une machine. Le travail présenté dans ce projet de recherche s'intègre dans un contexte d'interaction homme-robot (IHR) qui repose sur la robotique humanoïde. Le système qui en découle doit permettre à un utilisateur d'interagir efficacement et de façon intuitive avec la machine, tout en respectant certains critères, notamment de sécurité. Par une mise en commun des compétences respectives de l'homme et du robot humanoïde, les interactions sont améliorées. En effet, le robot peut réaliser une grande quantité d'actions avec précision et sans se fatiguer, mais n'est pas nécessairement doté d'une prise de décision adaptée à la situation, contrairement à l'homme qui est capable d'ajuster son comportement naturellement ou en fonction de son expérience. En d'autres termes, ce système cherche à intégrer le savoir-faire et la capacité de réflexion humaine avec la robustesse, l'efficacité et la précision du robot. Dans le domaine de la robotique, le terme d'interaction intègre également la notion de contrôle. La grande majorité des robots reçoit des commandes machines qui sont généralement des consignes de trajectoire, qu'ils sont capables d'interpréter. Or, plusieurs interfaces de contrôle sont envisageables, notamment celles utilisant des outils haptiques, qui permettent à un utilisateur d'avoir un ressenti et une perception tactile. Ces outils comme tous ceux qui augmentent le degré de contrôle auprès de l'utilisateur, en ajoutant un volet sensoriel, sont parfaitement adaptés pour ce genre d'applications. Dans ce projet, deux outils haptiques sont assemblés puis intégrés à une interface de contrôle haptique dans le but de commander le bras d'un robot humanoïde. Ainsi, l'homme est capable de diriger le robot tout en ajustant ses commandes en fonction des informations en provenance des différents capteurs du robot, qui lui sont retranscrites visuellement ou sensoriellement.