457 resultados para Flot optique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet de recherche s’inscrit dans le domaine de la dosimétrie à scintillation en radiothérapie, plus précisément en curiethérapie à haut débit de dose (HDR). Lors de ce type de traitement, la dose est délivrée localement, ce qui implique de hauts gradients de dose autour de la source. Le but de ce travail est d’obtenir un détecteur mesurant la dose en 2 points distincts et optimisé pour la mesure de dose en curiethérapie HDR. Pour ce faire, le projet de recherche est séparé en deux études : la caractérisation spectrale du détecteur à 2-points et la caractérisation du système de photodétecteur menant à la mesure de la dose. D’abord, la chaine optique d’un détecteur à scintillation à 2-points est caractérisée à l’aide d’un spectromètre afin de déterminer les composantes scintillantes optimales. Cette étude permet de construire quelques détecteurs à partir des composantes choisies pour ensuite les tester avec le système de photodétecteur multi-point. Le système de photodétecteur est aussi caractérisé de façon à évaluer les limites de sensibilité pour le détecteur 2-points choisi précédemment. L’objectif final est de pouvoir mesurer le débit de dose avec précision et justesse aux deux points de mesure du détecteur multi-point lors d’un traitement de curiethérapie HDR.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les télescopes de grande envergure requièrent des nouvelles technologies ayant un haut niveau de maturité technologique. Le projet implique la création d’un banc de test d’optique adaptative pour l’évaluation de la performance sur le ciel de dispositifs connexes. Le banc a été intégré avec succès à l’observatoire du Mont Mégantic, et a été utilisé pour évaluer la performance d’un senseur pyramidal de front d’onde. Le système a permis la réduction effective de la fonction d’étalement du point d’un facteur deux. Plusieurs améliorations sont possibles pour augmenter la performance du système.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les besoins toujours croissants en terme de transfert de données numériques poussent au développement de nouvelles technologies pour accroître la capacité des réseaux, notamment en ce qui concerne les réseaux de fibre optique. Parmi ces nouvelles technologies, le multiplexage spatial permet de multiplier la capacité des liens optiques actuels. Nous nous intéressons particulièrement à une forme de multiplexage spatial utilisant le moment cinétique orbital de la lumière comme base orthogonale pour séparer un certain nombre de canaux. Nous présentons d’abord les notions d’électromagnétisme et de physique nécessaires à la compréhension des développements ultérieurs. Les équations de Maxwell sont dérivées afin d’expliquer les modes scalaires et vectoriels de la fibre optique. Nous présentons également d’autres propriétés modales, soit la coupure des modes, et les indices de groupe et de dispersion. La notion de moment cinétique orbital est ensuite introduite, avec plus particulièrement ses applications dans le domaine des télécommunications. Dans une seconde partie, nous proposons la carte modale comme un outil pour aider au design des fibres optiques à quelques modes. Nous développons la solution vectorielle des équations de coupure des modes pour les fibres en anneau, puis nous généralisons ces équations pour tous les profils de fibres à trois couches. Enfin, nous donnons quelques exemples d’application de la carte modale. Dans la troisième partie, nous présentons des designs de fibres pour la transmission des modes avec un moment cinétique orbital. Les outils développés dans la seconde partie sont utilisés pour effectuer ces designs. Un premier design de fibre, caractérisé par un centre creux, est étudié et démontré. Puis un second design, une famille de fibres avec un profil en anneau, est étudié. Des mesures d’indice effectif et d’indice de groupe sont effectuées sur ces fibres. Les outils et les fibres développés auront permis une meilleure compréhension de la transmission dans la fibre optique des modes ayant un moment cinétique orbital. Nous espérons que ces avancements aideront à développer prochainement des systèmes de communications performants utilisant le multiplexage spatial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les lasers à fibre de haute puissance sont maintenant la solution privilégiée pour les applications de découpe industrielle. Le développement de lasers pour ces applications n’est pas simple en raison des contraintes qu’imposent les normes industrielles. La fabrication de lasers fibrés de plus en plus puissants est limitée par l’utilisation d’une fibre de gain avec une petite surface de mode propice aux effets non linéaires, d’où l’intérêt de développer de nouvelles techniques permettant l’atténuation de ceux-ci. Les expériences et simulations effectuées dans ce mémoire montrent que les modèles décrivant le lien entre la puissance laser et les effets non linéaires dans le cadre de l’analyse de fibres passives ne peuvent pas être utilisés pour l’analyse des effets non linéaires dans les lasers de haute puissance, des modèles plus généraux doivent donc développés. Il est montré que le choix de l’architecture laser influence les effets non linéaires. En utilisant l’équation de Schrödinger non linéaire généralisée, il a aussi été possible de montrer que pour une architecture en co-propagation, la diffusion Raman influence l’élargissement spectral. Finalement, les expériences et les simulations effectuées montrent qu’augmenter la réflectivité nominale et largeur de bande du réseau légèrement réfléchissant de la cavité permet d’atténuer la diffusion Raman, notamment en réduisant le gain Raman effectif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il existe désormais une grande variété de lentilles panoramiques disponibles sur le marché dont certaines présentant des caractéristiques étonnantes. Faisant partie de cette dernière catégorie, les lentilles Panomorphes sont des lentilles panoramiques anamorphiques dont le profil de distorsion est fortement non-uniforme, ce qui cause la présence de zones de grandissement augmenté dans le champ de vue. Dans un contexte de robotique mobile, ces particularités peuvent être exploitées dans des systèmes stéréoscopiques pour la reconstruction 3D d’objets d’intérêt qui permettent à la fois une bonne connaissance de l’environnement, mais également l’accès à des détails plus fins en raison des zones de grandissement augmenté. Cependant, à cause de leur complexité, ces lentilles sont difficiles à calibrer et, à notre connaissance, aucune étude n’a réellement été menée à ce propos. L’objectif principal de cette thèse est la conception, l’élaboration et l’évaluation des performances de systèmes stéréoscopiques Panomorphes. Le calibrage a été effectué à l’aide d’une technique établie utilisant des cibles planes et d’une boîte à outils de calibrage dont l’usage est répandu. De plus, des techniques mathématiques nouvelles visant à rétablir la symétrie de révolution dans l’image (cercle) et à uniformiser la longueur focale (cercle uniforme) ont été développées pour voir s’il était possible d’ainsi faciliter le calibrage. Dans un premier temps, le champ de vue a été divisé en zones à l’intérieur desquelles la longueur focale instantanée varie peu et le calibrage a été effectué pour chacune d’entre elles. Puis, le calibrage général des systèmes a aussi été réalisé pour tout le champ de vue simultanément. Les résultats ont montré que la technique de calibrage par zone ne produit pas de gain significatif quant à la qualité des reconstructions 3D d’objet d’intérêt par rapport au calibrage général. Cependant, l’étude de cette nouvelle approche a permis de réaliser une évaluation des performances des systèmes stéréoscopiques Panomorphes sur tout le champ de vue et de montrer qu’il est possible d’effectuer des reconstructions 3D de qualité dans toutes les zones. De plus, la technique mathématique du cercle a produit des résultats de reconstructions 3D en général équivalents à l’utilisation des coordonnées originales. Puisqu’il existe des outils de calibrage qui, contrairement à celui utilisé dans ce travail, ne disposent que d’un seul degré de liberté sur la longueur focale, cette technique pourrait rendre possible le calibrage de lentilles Panomorphes à l’aide de ceux-ci. Finalement, certaines conclusions ont pu être dégagées quant aux facteurs déterminants influençant la qualité de la reconstruction 3D à l’aide de systèmes stéréoscopiques Panomorphes et aux caractéristiques à privilégier dans le choix des lentilles. La difficulté à calibrer les optiques Panomorphes en laboratoire a mené à l’élaboration d’une technique de calibrage virtuel utilisant un logiciel de conception optique et une boîte à outils de calibrage. Cette approche a permis d’effectuer des simulations en lien avec l’impact des conditions d’opération sur les paramètres de calibrage et avec l’effet des conditions de calibrage sur la qualité de la reconstruction. Des expérimentations de ce type sont pratiquement impossibles à réaliser en laboratoire mais représentent un intérêt certain pour les utilisateurs. Le calibrage virtuel d’une lentille traditionnelle a aussi montré que l’erreur de reprojection moyenne, couramment utilisée comme façon d’évaluer la qualité d’un calibrage, n’est pas nécessairement un indicateur fiable de la qualité de la reconstruction 3D. Il est alors nécessaire de disposer de données supplémentaires pour juger adéquatement de la qualité d’un calibrage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente les étapes de fabrication et les résultats de la caractérisation des modèles de tissu biologique fabriqués en utilisant des cristaux liquides et des polymères qui permettent de contrôler la diffusion et la transmission de la lumière par un champ électrique. Ce champ électrique entraîne un changement d’orientation des molécules de cristaux liquides, ce qui induit des variations locales de l’indice de réfraction dans ces matériaux. Nous avons utilisé ce contrôle de l’indice de réfraction pour contrôler le niveau de diffusion et de transmission dans différents types d’échantillons. Les échantillons utilisés sont faits a) de cristaux liquides purs, b) de sphères de polymère dans un environnement de cristaux liquides, c) de cristaux liquides ou de gouttelettes de cristaux liquides dans un environnement de polymère. Les travaux réalisés nous ont permis de proposer une méthode électro-optique pour simuler, à l’aide de cristaux liquides, des milieux diffusants tels que les tissus biologiques. Dans la recherche de modèles, nous avons montré qu’il est possible de contrôler, par la fréquence du champ électrique, des gouttelettes de cristaux liquides dispersées dans une matrice de polymère contenant des ions lithium. Une sensibilité sélective à la fréquence de la tension électrique appliquée en fonction de la taille des gouttelettes est observée. Par la suite, nous avons démontré l’effet de « quenching » interférentiel de la diffusion pour une sonde optique cohérente en étudiant des modèles non alignés (clustérisés) de cristaux liquides. Nous avons aussi démontré des applications potentielles de ce phénomène tel le filtrage en longueur d’onde par l’ajustement d’un champ électrique. Nous avons ensuite démontré que l’utilisation des cristaux liquides - dits « dual-frequency » - permet une modulation rapide des états ou des structures du matériau ainsi que de la transmission et de la diffusion de lumière de ce dernier. Enfin, nous avons aussi découvert que ces modèles peuvent être contrôlés pour retrouver le degré de polarisation de la lumière diffusée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : La capacité de décider parmi plusieurs possibilités d'actions, grâce à l'information sensorielle disponible, est essentielle à un organisme interagissant avec un environnement complexe. Les modèles actuels de sélection d'une action soutiennent que le cerveau traite continuellement l'information sensorielle afin de planifier plusieurs possibilités d'action en parallèle. Dans cette perspective, ces représentations motrices, associées à chaque possibilité d'action, sont en constante compétition entre elles. Afin qu'une alternative puisse être sélectionnée pour le mouvement, une valeur de pondération, intégrant une multitude de facteurs, doit être associée à chacun des plans moteurs afin de venir moduler la compétition. Plusieurs études se sont intéressées aux différents facteurs modulant la sélection de l'action, tels que la disposition de l'environnement, le coût des actions, le niveau de récompense, etc. Par contre, il semble qu'aucune étude n'ait rapporté ce qu'il advient lorsque la valeur de pondération de chacune des actions possibles est identique. Dans ce contexte, quel est l'élément permettant de venir moduler la sélection de l'action? De ce fait, l'objectif principal de mon projet de maitrise est d'investiguer le facteur permettant au cerveau de sélectionner une action lorsque tous les facteurs rapportés dans la littérature sont contrôlés. De récentes données ont montré que les oscillations corticales lentes dans la bande delta peuvent servir d'instrument de sélection attentionnelle en modulant l'amplitude de la réponse neuronale. Ainsi, les stimuli arrivant dans le cortex pendant une phase en delta de forte excitabilité sont amplifiés, tandis que ceux arrivant lors d'une phase en delta de faible excitabilité sont atténués. Ceci dit, il est possible que la phase en delta dans laquelle se trouve le cerveau au moment d'effectuer la sélection d'une action puisse influencer la décision. Utilisant une tâche de sélection de main, cette étude teste l'hypothèse que la sélection de la main est associée à la phase en delta des ensembles neuronaux codant le mouvement de chacune des mains, lorsque tous les facteurs connus influençant la décision sont contrôlés. L'électroencéphalographie (EEG) fut utilisée afin d'enregistrer les signaux corticaux pendant que les participants effectuaient une tâche de sélection de main dans laquelle ils devaient, à chaque essai, atteindre une cible visuelle aussi rapidement que possible en utilisant la main de leur choix. La tâche fut conçue de façon à ce que les facteurs spatiaux et biomécaniques soient contrôlés. Ceci fut réalisé enidentifiant premièrement, sur une base individuelle, l'emplacement de la cible pour laquelle les mains droite et gauche avaient une probabilité équivalente d'être choisies (point d'égalité subjective, PSE). Ensuite, dans l'expérience principale, les participants effectuaient plusieurs mouvements d'atteinte vers des cibles positionnées près et loin du PSE, toujours avec la main de leur choix. L'utilisation de cinq cibles très près du PSE a permis de collecter de nombreux essais dans lesquels la main droite et la main gauche furent sélectionnées en réponse à un même stimulus visuel. Ceci a ainsi permis d'analyser les signaux des deux cortex dans des conditions d'utilisation de la main droite et gauche, tout en contrôlant pour les autres facteurs pouvant moduler la sélection de la main. Les résultats de cette recherche révèlent que l'hémisphère cortical se trouvant dans la phase la plus excitable en delta (près du pic négatif), lors de l'apparition du stimulus, est associé à la fois à la main qui sera sélectionnée ainsi qu'au temps de réaction. Ces résultats montrent que l'excitabilité corticale momentanée (phase du signal) pourrait agir comme un facteur modulant la sélection d'une action. Dans cette optique, ces données élargissent considérablement les modèles actuels en montrant que la sélection d'une action est en partie déterminée par l'état du cerveau au moment d'effectuer un choix, d'une manière qui est indépendante de toutes les variables de décision connues.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Afin d’étudier l’historique de formation stellaire et d’enrichissement chimique des galaxies spirales barrées, j’ai simulé l’évolution de 27 galaxies spirales, barrées et non barrées, de diverses masses stellaires et fractions de gaz. Alors que les galaxies non barrées présentent une évolution lente et continue sur les deux milliards d’années que durent nos simulations, les galaxies barrées ont une évolution bien plus explosive, et ce particulièrement pour les galaxies les plus massives. Dans un premier temps, je montre que la présence de la barre entraine un flot important de gaz des régions périphériques vers le centre de la galaxie barrée, causant un sursaut de formation stellaire et une croissance importante de l’abondance chimique centrale, et que l’amplitude et la vitesse à laquelle ce sursaut arrive augmentent avec la masse de la galaxie. Cet épisode de sursaut stellaire entraine alors une diminution importante de la masse de gaz, entrainant à son tour une décroissance de la formation stellaire et une stagnation de l’enrichissement chimique pour le reste de l’évolution de la galaxie. Dans un deuxième temps, je montre qu’à cause de la dynamique en deux périodes très différentes des galaxies barrées, deux galaxies de masse très semblable peuvent avoir des taux de formation stellaire et des métallicités complètement différentes en fonction de leur stade évolutif, stade qu’on ne peut déterminer aisément. Cette difficulté est tout aussi importante lorsqu’on compare le coeur des galaxies barrées et non barrées entre elles, étant donné que des coeurs comparables sont situés dans les galaxies très différentes, et que des galaxies semblables ont des coeurs très différents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’interaction physique humain-robot est un domaine d’étude qui s’est vu porter beaucoup d’intérêt ces dernières années. Une optique de coopération entre les deux entités entrevoit le potentiel d’associer les forces de l’humain (comme son intelligence et son adaptabilité) à celle du robot (comme sa puissance et sa précision). Toutefois, la mise en service des applications développées reste une opération délicate tant les problèmes liés à la sécurité demeurent importants. Les robots constituent généralement de lourdes machines capables de déplacements très rapides qui peuvent blesser gravement un individu situé à proximité. Ce projet de recherche aborde le problème de sécurité en amont avec le développement d’une stratégie dite "pré-collision". Celle-ci se caractérise par la conception d’un système de planification de mouvements visant à optimiser la sécurité de l’individu lors de tâches d’interaction humain-robot dans un contexte industriel. Pour ce faire, un algorithme basé sur l’échantillonnage a été employé et adapté aux contraintes de l’application visée. Dans un premier temps, l’intégration d’une méthode exacte de détection de collision certifie que le chemin trouvé ne présente, a priori, aucun contact indésirable. Ensuite, l’évaluation de paramètres pertinents introduit notre notion de sécurité et définit un ensemble d’objectifs à optimiser. Ces critères prennent en compte la proximité par rapport aux obstacles, l’état de conscience des êtres humains inclus dans l’espace de travail ainsi que le potentiel de réaction du robot en cas d'évènement imprévu. Un système inédit de combinaison d’objectifs guide la recherche et mène à l’obtention du chemin jugé comme étant le plus sûr, pour une connaissance donnée de l’environnement. Le processus de contrôle se base sur une acquisition minimale de données environnementales (dispositif de surveillance visuelle) dans le but de nécessiter une installation matérielle qui se veut la plus simple possible. Le fonctionnement du système a été validé sur le robot industriel Baxter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le polyhydroxybutyrate (PHB) est un biopolymère intracellulaire synthétisé par fermentation bactérienne. Il présente de nombreux avantages (propriétés thermiques et mécaniques comparables à celles de polyoléfines, haute hydrophobie, biocompatibilité, biodégradabilité, industrialisable) et de nombreux inconvénients significatifs (mauvaise stabilité thermique et fragilité). Cette mauvaise stabilité est due à un phénomène de dégradation thermique proche du point de fusion du PHB. Ceci conduit à une réduction du poids moléculaire par un procédé de scission de chaîne aléatoire, modifiant alors irréversiblement les propriétés cristallines et rhéologiques de manière. Ainsi, les températures de fusion et de cristallisation du PHB diminuent drastiquement et la cinétique de cristallisation est ralentie. Par ailleurs, un second phénomène d'autonucléation intervient à proximité du point de fusion. En effet, une certaine quantité d'énergie est nécessaire pour effacer toute présence de résidus cristallins dans la matière à l’état fondu. Ces résidus peuvent agir comme nucléides pendant le processus de cristallisation et y influencer de manière significative la cinétique de cristallisation du PHB. Ce mémoire vise à montrer l'effet des processus de dégradation thermique et d’autonucléation du PHB sur sa cinétique de cristallisation. Pour cela, trois protocoles thermiques spécifiques ont été proposés, faisant varier la température maximum de chauffe (Th) et le temps de maintien à cette température (th) afin apporter une nouvelle approche de effet du traitement thermique sur la cristallisation, l’autonucléation, la dégradation thermique et la microstructure du PHB en utilisant respectivement la calorimétrie différentielle à balayage (DSC) dans des conditions cristallisation non-isotherme et isotherme, la diffraction de rayon X (WAXD), la spectroscopie infrarouge (FT-IR) et la microscopie optique. Th a été varié entre 167 et 200 °C et th entre 3 et 10 min. À Th ≥185°C, le phénomène de scission de chaine est le seul phénomène qui influence de cinétique de cristallisation alors qu’à Th < 180°C le processus de nucléation homogène est favorisé par la présence de résidus cristallins est prédomine sur le phénomène de dégradation. En ce qui concerne l'effet du temps de maintien, th, il a été mis en évidence le phénomène de dégradation thermique est sensible à la variation de ce paramètre, ce qui n’est pas le cas du processus d’autonucléation. Finalement, il a été montré que la morphologie cristalline est fortement affectée par les mécanismes de dégradation thermique et d'auto-nucléation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’eau est un enjeu majeur en environnement autant d’un point de vue de sa qualité que de sa quantité. Cependant, des pénuries d’eau douce se font de plus en plus sentir à travers le monde. Par ailleurs, les États-Unis n’en sont pas exemptés. En effet, l’ouest du pays constate que les réserves diminuent constamment. Dans le passé, une compagnie californienne s’était déjà tournée vers le Canada afin d’en acheter une certaine quantité en vrac dans le dessein d’en assurer son approvisionnement. Le Québec, étant un voisin des Américains, ne peut se permettre d’écarter la question de l’exportation d’eau en vrac, d’autant plus qu’il est évident qu’une activité de cette envergure crée des impacts sur l’environnement et la société. C’est pourquoi cet essai a pour objectif d’identifier si la vente de l’eau douce en vrac du Québec vers les États-Unis implique des conséquences pour les citoyens québécois. Une analyse multicritère a été réalisée afin d’atteindre l’objectif principal de cet l’essai. Cette dernière consiste en l’évaluation des différents aspects de l’exportation d’eau douce selon une optique sociale. Ainsi, neuf critères ont été créés. Ils sont répartis en quatre catégories, soit sociale, économique, législative et les relations internationales. Suite aux résultats obtenus lors de l’évaluation des critères, il est possible d’affirmer que la vente de l’eau québécoise aurait des incidences sur la population. Cette analyse nous permet de conclure que, d’un côté, les citoyens accordent une grande valeur à la ressource et qu’ils seraient plutôt d’accord à exporter l’eau. Néanmoins, d’un autre côté, les critères concernant la relation de pouvoir entre le pays amont et celui aval ainsi que les conséquences qu’implique l’Accord de libre-échange nord-américain viennent causer des répercussions négatives pour les citoyens. Les principales conséquences négatives concernent davantage le milieu international. Par contre, le Québec a peu ou pas d’influence à ce niveau, c’est pourquoi l’ensemble des recommandations effectuées porte sur des dispositions que la province pourrait envisager à l’interne afin de limiter les incidences sur sa population et son environnement. L’accent est donc mis sur des mesures permettant de mieux gérer la ressource et de la consommer de manière responsable. Ainsi, il est recommandé de mettre en place une gestion intégrée de l’eau par bassin versant, de fixer une quantité maximale pour l’exportation, d’installer des compteurs d’eau, de revoir la facturation de l’eau et, finalement, communiquer l’information aux citoyens dans l’optique de les renseigner, mais aussi de les impliquer dans la protection de l’eau au Québec.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cet essai est d’analyser l’applicabilité de différentes mesures réglementaires pour favoriser les changements de comportements citoyens en gestion des matières résiduelles, plus particulièrement afin de réduire l’élimination de ces matières. La prise de conscience de plus en plus généralisée à l’égard des enjeux environnementaux ne se reflète en effet pas toujours dans les comportements et actions citoyennes au quotidien et nombreux sont les facteurs qui freinent l’action environnementale. Cette situation se répercute également dans la manière dont les ménages, dans leur vie quotidienne, gèrent leurs matières résiduelles. La gestion de ces matières, dont une partie est destinée à l’élimination, soulève différents enjeux environnementaux, sociaux et économiques. Par ailleurs, parmi ce flot de matières, une quantité importante possède le potentiel d’être mise en valeur, ce qui est possible si ceux qui en ont la responsabilité à un moment ou à un autre, dont les citoyens, posent les bons gestes. Les pouvoirs publics provinciaux et municipaux peuvent utiliser trois principales approches afin de favoriser les bons comportements à cet égard. L’une d’entre elles consiste en l’utilisation de mesures législatives et réglementaires. Ces mesures, étudiées pour différents cas nord-américains, sont applicables en tenant compte des compétences provinciales et municipales. Couplées avec l’approche volontaire ou avec des instruments économiques, elles favorisent la performance des états, provinces ou municipalités qui les ont implantées sur leur territoire. Elles peuvent aussi appuyer sur certains leviers à l’action citoyenne, mais les comportements humains étant extrêmement complexes, ces mesures ne peuvent assurer, à elles seules, un changement rapide et durable des comportements. Les différentes approches, utilisées de façon complémentaire, sont plus à même d’entrainer ce changement. Pour assurer une participation maximale à la gestion des matières résiduelles, faciliter, encourager les bons comportements et favoriser l’engagement est essentiel. La réglementation à elle seule contribue peu à ces facteurs. Néanmoins, si elle s’accompagne d’un message fort, elle contribue à créer un sentiment de devoir partagé avec ses semblables et le sentiment d’une réelle adhésion et volonté politique. Pour une efficacité optimale des mesures en place, c’est l’ensemble des acteurs et générateurs de matières résiduelles qui doivent prendre leur rôle au sérieux, et non uniquement le citoyen. La mise en place de mesures favorisant des changements en amont de la problématique est aussi essentielle, bien que cet aspect ne soit pas élaboré en profondeur considérant les limites de cet essai.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les matériaux composites sont utilisés dans beaucoup de domaines pour leurs propriétés mécaniques spécifiques, leur mise en forme facile et leur bas coût. Cependant, lorsque les composites pétro-sourcées sont en fin de vie, le traitement des déchets a un fort impact environnemental. C’est pour cette raison que les industriels se tournent vers des matériaux bio-sourcés. Ils souhaitent ainsi abaisser le coût des matières premières mais aussi se donner une image plus « verte » grâce à l’utilisation de matériaux renouvelables et/ou compostables. Le projet présenté s’inscrit dans dans cette optique où il est question d’élaborer de nouveaux composites à renfort et matrices bio-sourcés et tout particulièrement des composites fibre de lin/acide polylactique (PLA). Ces derniers sont généralement appelés bio-composites. L’originalité de cette étude réside dans le traitement des fibres de lin afin de les compatibilité avec la matrice PLA. Le traitement consiste au greffage de dioxyde de titane sur la surface de fibres de lin fonctionnalisée par oxydation au TEMPO. Ces fibres longues sont ensuite utilisées comme renfort sous forme de tissu unidirectionnel dans la matrice PLA. Le comportement mécanique en traction, flexion et la résistance à l’impact de ces biocomposites sont étudiés afin d’analyser l’influence du traitement des fibres sur leur performances.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.