860 resultados para Vibration analysis techniques


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Os modelos a ser analisados pelo Método de Elementos Finitos são cada vez mais complexos e, nos tempos que correm, seria impensável realizar tais análises sem um apoio computorizado. Existe para esta finalidade uma vasta gama de programas que permitem realizar tarefas que passam pelo desenho de estruturas, análise estática de cargas, análise dinâmica e vibrações, visualização do comportamento físico (deformações) em tempo real, que permitem a otimização da estrutura. Sob o pretexto de permitir a qualquer utilizador uma análise de estruturas simples com o Método dos Elementos Finitos, surge esta tese, onde se irá criar de raiz um programa com interface gráfica no ambiente MATLAB® para análise de estruturas simples com dois tipos de elemento finito, triangular de deformação constante e quadrangular de deformação linear. O software desenvolvido, verificado por comparação com um software comercial dedicado para o efeito, efetua malhagem com elementos bidimensionais triangulares e quadriláteros e resolve modelos arbitrados pelo Método de Elementos Finitos, representando estes resultados visualmente e em formato tabular.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dissertation presented to obtain the Ph.D degree in Chemistry.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Search is now going beyond looking for factual information, and people wish to search for the opinions of others to help them in their own decision-making. Sentiment expressions or opinion expressions are used by users to express their opinion and embody important pieces of information, particularly in online commerce. The main problem that the present dissertation addresses is how to model text to find meaningful words that express a sentiment. In this context, I investigate the viability of automatically generating a sentiment lexicon for opinion retrieval and sentiment classification applications. For this research objective we propose to capture sentiment words that are derived from online users’ reviews. In this approach, we tackle a major challenge in sentiment analysis which is the detection of words that express subjective preference and domain-specific sentiment words such as jargon. To this aim we present a fully generative method that automatically learns a domain-specific lexicon and is fully independent of external sources. Sentiment lexicons can be applied in a broad set of applications, however popular recommendation algorithms have somehow been disconnected from sentiment analysis. Therefore, we present a study that explores the viability of applying sentiment analysis techniques to infer ratings in a recommendation algorithm. Furthermore, entities’ reputation is intrinsically associated with sentiment words that have a positive or negative relation with those entities. Hence, is provided a study that observes the viability of using a domain-specific lexicon to compute entities reputation. Finally, a recommendation system algorithm is improved with the use of sentiment-based ratings and entities reputation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The first objective of this study was to identify appropriate sensory descriptors to assess the astringent sub-qualities of red wine. The influence of pH and ethanol on the sensation of astringency in red wine was evaluated, using a de-alcoholized red wine. A portion of the wine was adjusted to the pH values of 3.2, 3.4, 3.6 and 3.8, and another portion was adjusted to ethanol concentrations of 0%, 6%, 12%, and 15%. In addition, the pH 3.4 and 3.6 treatments were adjusted to an ethanol concentration of 12% and 15% all wines were then assessed sensorially and seventeen terms were identified, through panel discussion, to describe the mouth-feel and taste qualities: velvet, aggressive, silk/satin, dry, fleshy, unripe, pucker viscosity, abrasive, heat, chewy, acidity, grippy/adhesive, bitter, balance, overall astringency, and mouth-coat. Descriptive analysis profiling techniques were used to train the panel and measure the intensity of these attributes. It was found that decreasing pH values (averaged across all ethanol concentrations) showed an increase in the overall astringency of the wine. The combined treatments of ethanol and pH, real wine parameters (pH 3.4 and 3.6; 12% and 15% ethanol) did not have an effect on the perception of the astringent sub-qualities of the wine. A time intensity study was also included using the pH and ethanol adjusted wines, which showed that as the ethanol level of the wines increased so did the time to maximum intensity. The second objective was to identify appropriate sensory descriptors to evaluate the influence of grape maturity and maceration technique (grape skin contact) on the astringency sub-qualities of red vinifera wines from Niagara. The grapes were harvested across two dates, representing an early harvest and a late harvest. A portion of the Cabernet Sauvignon grapes wine was divided into three maceration treatments of oneweek maceration, standard two-week maceration, three-week maceration, and MCM. Another portion of both the early and late harvest Cabernet Sauvignon grapes were chaptalized to yield a final ethanol concentration of 14.5%. The wines were assessed sensorially and thirteen terms were identified, through panel discussion, to describe the mouth-feel and taste qualities: carbon dioxide, pucker, acidity, silk/chamois, dusty/chalky/powdery, sandpaper, numbing, grippy/adhesive, dry, mouthcoat, bitter, balance and, overall astringency. Descriptive analysis techniques were used to train the panel and measure the intensity of these attributes. The data revealed few significant differences in the mouth-feel of the wines with respect to maturity; which included differences in overall astringency and balance. There were varietal differences between Cabernet Sauvignon, Cabernet Franc, and Pinot Noir and differences for Cabernet Sauvignon wines due to the length and manner of maceration and as a result of chaptalization. Statistical analysis revealed a more complex mouth-feel for the Pinot Noir wines; and an increase in the intensity of the astringent sub-qualities as a result of the addition of sugar to the wines. These findings have implications for how processing decisions, such as optimum grape maturity and vinification methods may affect red wine quality.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Notre recherche a pour but de déterminer comment les genres textuels peuvent être exploités dans le design des environnements numériques de travail afin de faciliter l’accomplissement des pratiques textuelles de cadres et de secrétaires dans une municipalité et une administration fédérale canadiennes. À cet effet, le premier objectif consiste à évaluer l’aptitude des environnements numériques de travail à supporter les pratiques textuelles (lecture, écriture et manipulation des textes) de ces employés. Le deuxième objectif est de décrire les rôles des genres textuels au cours des pratiques textuelles. Avec l’exemple du courriel, le troisième objectif vise à examiner comment le genre peut être exploité dans une perspective d’assistance à la réalisation des pratiques textuelles dans les environnements numériques de travail. Cette recherche de nature qualitative comporte une méthodologie en deux étapes. La première étape consiste en un examen minutieux des pratiques textuelles, des difficultés rencontrées au cours de celles-ci, du rôle du genre dans les environnements numériques de travail, ainsi que des indices sollicités au cours de la gestion du courriel. Trois modes de collecte des données qualitatives sont utilisés auprès de 17 cadres et de 17 secrétaires issus de deux administrations publiques : l’entrevue semi-dirigée, le journal de bord et l’enquête cognitive. Les résultats sont examinés à l’aide de stratégies d’analyse de contenu qualitative. La deuxième phase comprend la mise au point d’une chaîne de traitement du courriel, visant à étayer notre réflexion sur le genre textuel et son exploitation dans la conception des environnements numériques de travail. Un corpus de 1703 messages est élaboré à partir d’un échantillon remis par deux cadres gouvernementaux. Les résultats permettent d’abord de dresser un portrait général des pratiques de lecture, d’écriture et de manipulation des textes communes et spécifiques aux cadres et aux secrétaires. L’importance du courriel, qui constitue environ 40% des systèmes notés dans les journaux de bord, est soulignée. Les difficultés rencontrées dans les environnements numériques de travail sont également décrites. Dans un deuxième temps, les rôles du genre au cours des pratiques textuelles sont examinés en fonction d’une matrice tenant à la fois compte de ses dimensions individuelles et collectives, ainsi que de ses trois principales facettes ; la forme, le contenu et la fonction. Ensuite, nous présentons un cadre d’analyse des indices affectant la gestion du courriel qui synthétise le processus d’interprétation des messages par le destinataire. Une typologie des patrons de catégorisation des cadres est également définie, puis employée dans une expérimentation statistique visant la description et la catégorisation automatique du courriel. Au terme de ce processus, on observe des comportements linguistiques marqués en fonction des catégories du courriel. Il s’avère également que la catégorisation automatique basée sur le lexique des messages est beaucoup plus performante que la catégorisation non lexicale. À l’issue de cette recherche, nous suggérons d’enrichir le paradigme traditionnel relevant de l’interaction humain-ordinateur par une sémiotique du genre dans les environnements numériques de travail. L’étude propose également une réflexion sur l’appartenance du courriel à un genre, en ayant recours aux concepts théoriques d’hypergenre, de genre et de sous-genre. Le succès de la catégorisation automatique du courriel en fonction de facettes tributaires du genre (le contenu, la forme et la fonction) offre des perspectives intéressantes sur l’application de ce concept au design des environnements numériques de travail en vue de faciliter l’accomplissement des pratiques textuelles par les employés.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La vision est un élément très important pour la navigation en général. Grâce à des mécanismes compensatoires les aveugles de naissance ne sont pas handicapés dans leurs compétences spatio-cognitives, ni dans la formation de nouvelles cartes spatiales. Malgré l’essor des études sur la plasticité du cerveau et la navigation chez les aveugles, les substrats neuronaux compensatoires pour la préservation de cette fonction demeurent incompris. Nous avons démontré récemment (article 1) en utilisant une technique d’analyse volumétrique (Voxel-Based Morphometry) que les aveugles de naissance (AN) montrent une diminution de la partie postérieure de l’hippocampe droit, structure cérébrale importante dans la formation de cartes spatiales. Comment les AN forment-ils des cartes cognitives de leur environnement avec un hippocampe postérieur droit qui est significativement réduit ? Pour répondre à cette question nous avons choisi d’exploiter un appareil de substitution sensorielle qui pourrait potentiellement servir à la navigation chez les AN. Cet appareil d’affichage lingual (Tongue display unit -TDU-) retransmet l’information graphique issue d’une caméra sur la langue. Avant de demander à nos sujets de naviguer à l’aide du TDU, il était nécessaire de nous assurer qu’ils pouvaient « voir » des objets dans l’environnement grâce au TDU. Nous avons donc tout d’abord évalué l’acuité « visuo »-tactile (article 2) des sujets AN pour les comparer aux performances des voyants ayant les yeux bandées et munis du TDU. Ensuite les sujets ont appris à négocier un chemin à travers un parcours parsemé d’obstacles i (article 3). Leur tâche consistait à pointer vers (détection), et contourner (négociation) un passage autour des obstacles. Nous avons démontré que les sujets aveugles de naissance non seulement arrivaient à accomplir cette tâche, mais encore avaient une performance meilleure que celle des voyants aux yeux bandés, et ce, malgré l’atrophie structurelle de l’hippocampe postérieur droit, et un système visuel atrophié (Ptito et al., 2008). Pour déterminer quels sont les corrélats neuronaux de la navigation, nous avons créé des routes virtuelles envoyées sur la langue par le biais du TDU que les sujets devaient reconnaitre alors qu’ils étaient dans un scanneur IRMf (article 4). Nous démontrons grâce à ces techniques que les aveugles utilisent un autre réseau cortical impliqué dans la mémoire topographique que les voyants quand ils suivent des routes virtuelles sur la langue. Nous avons mis l’emphase sur des réseaux neuronaux connectant les cortex pariétaux et frontaux au lobe occipital puisque ces réseaux sont renforcés chez les aveugles de naissance. Ces résultats démontrent aussi que la langue peut être utilisée comme une porte d’entrée vers le cerveau en y acheminant des informations sur l’environnement visuel du sujet, lui permettant ainsi d’élaborer des stratégies d’évitement d’obstacles et de se mouvoir adéquatement.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En Argentine, la biotechnologie agricole, spécialement le soya transgénique, a été adoptée de façon fulgurante et elle a provoqué un fort choc dans l’économie nationale et dans la société. Actuellement, dû à la gravité des conséquences de ce phénomène, les médias, et la presse en particulier, ont fait écho du débat. Le but général de cette étude est d’analyser le débat de société sur ce phénomène dans la presse écrite argentine. Pour ce faire, trois objectifs spécifiques ont été retenus : dresser un portrait général du discours; comprendre le contexte politique et économique qui a permis l’insertion de la biotechnologie agricole en Argentine; et analyser les enjeux socioéthiques subjacents au problème des biotechnologies. Pour répondre à ces objectifs, on a effectué une analyse de contenu du discours social circonscrit à la presse écrite argentine entre les années 1999- 2006. La démarche privilégiée inclut la classification des articles de journaux par l’utilisation de mots-clés et l’assignation à des catégories thématiques avec l’assistance des techniques d’analyse de texte par ordinateur. Les résultats de cette étude signalent pour la période étudiée une importante couverture journalistique des biotechnologies agricoles, couverture qui, en général, a été favorable. La quantité d’articles augmente avec les années et montre un virage important des sujets commerciaux à des questions politiques. Le débat autour des conséquences environnementales et sociales de l’application du nouveau modèle agricole sont pauvrement représentées et montrent une apparition plus tardive dans les journaux argentins. Cependant, cela pourrait s’expliquer par un déplacement dans l’axe de la discussion des biotechnologies vers la sojisation qui devient l’enjeu central du débat autour du phénomène agricole.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Résumé Les premières études électrophysiologiques et anatomiques ont établi le rôle crucial du cortex somatosensoriel primaire et secondaire (SI et SII) dans le traitement de l'information somatosensorielle. Toutefois, les récentes avancées en techniques d’imagerie cérébrale ont mis en question leur rôle dans la perception somatosensorielle. La réorganisation du cortex somatosensoriel est un phénomène qui a été proposé comme cause de la douleur du membre fantôme chez les individus amputés. Comme la plupart des études se sont concentrées sur le rôle du SI, une étude plus approfondie est nécessaire. La présente série d'expériences implique une exploration du rôle des régions somatosensorielles dans la perception des stimuli douleureux et non-douleureux chez des volontaires sains et patients avec des douleurs de membre fantôme. La première étude expérimentale présentée dans le chapitre 3 est une méta-analyse des études de neuro-imagerie employant des stimuli nociceptifs chez des volontaires sains. En comparaison aux précédentes, la présente étude permet la génération de cartes quantitatives probabilistes permettant la localisation des régions activées en réponse à des stimuli nociceptifs. Le rôle du cortex somatosensoriel dans la perception consciente de stimuli chauds a été étudié dans le chapitre 4 grâce à une étude d'imagerie par résonance magnétique fonctionnelle, dans laquelle des stimuli thermiques douloureux et non-douloureux ont été administrés de manière contrebalancée. Grâce à cette procédure, la perception de la chaleur fut atténuée par les stimuli douloureux, ce qui permit la comparaison des stimuli consciemment perçus avec ceux qui ne le furent pas. Les résultats ont montrés que les stimulations chaudes perçues ont engendré l’activation de l’aire SI controlatérale, ainsi que de la région SII. Grâce à l’évaluation clinique de patients amputés présentant une altération de leurs perceptions somatosensorielles, il est également possible de dessiner un aperçu des régions corticales qui sous-tendent ces modifications perceptuelles. Dans le chapitre 5 nous avons émis l'hypothèse proposant que les sensations du membre fantôme représentent un corrélat perceptuel de la réorganisation somatotopique des représentations sensorielles corticales. En effet, la réorganisation des sensations peut donner des indices sur les régions impliquées dans la genèse des sensations référées. Ainsi, un protocole d’évaluation sensoriel a été administré à un groupe de patients affligés de douleur au niveau du membre fantôme. Les résultats ont montré que, contrairement aux études précédentes, les sensations diffèrent grandement selon le type et l'intensité des stimuli tactiles, sans évidence de la présence d’un modèle spatialement localisé. Toutefois, les résultats actuels suggèrent que les régions corticales à champs récepteurs bilatéraux présentent également des modifications en réponse à une déafférentation. Ces études présentent une nouvelle image des régions corticales impliquées dans la perception des stimuli somatosensoriels, lesquelles comprennent les aires SI et SII, ainsi que l'insula. Les résultats sont pertinents à notre compréhension des corrélats neurologiques de la perception somatosensorielle consciente.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans cette thèse, nous présentons les problèmes d’échange de documents d'affaires et proposons une méthode pour y remédier. Nous proposons une méthodologie pour adapter les standards d’affaires basés sur XML aux technologies du Web sémantique en utilisant la transformation des documents définis en DTD ou XML Schema vers une représentation ontologique en OWL 2. Ensuite, nous proposons une approche basée sur l'analyse formelle de concept pour regrouper les classes de l'ontologie partageant une certaine sémantique dans le but d'améliorer la qualité, la lisibilité et la représentation de l'ontologie. Enfin, nous proposons l’alignement d'ontologies pour déterminer les liens sémantiques entre les ontologies d'affaires hétérogènes générés par le processus de transformation pour aider les entreprises à communiquer fructueusement.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce mémoire présente une analyse homogène et rigoureuse de l’échantillon d’étoiles naines blanches situées à moins de 20 pc du Soleil. L’objectif principal de cette étude est d’obtenir un modèle statistiquement viable de l’échantillon le plus représentatif de la population des naines blanches. À partir de l’échantillon défini par Holberg et al. (2008), il a fallu dans un premier temps réunir le plus d’information possible sur toutes les candidates locales sous la forme de spectres visibles et de données photométriques. En utilisant les modèles d’atmosphère de naines blanches les plus récents de Tremblay & Bergeron (2009), ainsi que différentes techniques d’analyse, il a été permis d’obtenir, de façon homogène, les paramètres atmosphériques (Teff et log g) des naines blanches de cet échantillon. La technique spectroscopique, c.-à-d. la mesure de Teff et log g par l’ajustement des raies spectrales, fut appliquée à toutes les étoiles de notre échantillon pour lesquelles un spectre visible présentant des raies assez fortes était disponible. Pour les étoiles avec des données photométriques, la distribution d’énergie combinée à la parallaxe trigonométrique, lorsque mesurée, permettent de déterminer les paramètres atmosphériques ainsi que la composition chimique de l’étoile. Un catalogue révisé des naines blanches dans le voisinage solaire est présenté qui inclut tous les paramètres atmosphériques nouvellement determinés. L’analyse globale qui en découle est ensuite exposée, incluant une étude de la distribution de la composition chimique des naines blanches locales, de la distribution de masse et de la fonction luminosité.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Durant les dernières décennies, la technique Langmuir-Blodgett (LB) s’est beaucoup développée dans l’approche « bottom-up » pour la création de couches ultra minces nanostructurées. Des patrons constitués de stries parallèles d’environ 100 à 200 nm de largeur ont été générés avec la technique de déposition LB de monocouches mixtes de 1,2-dilauroyl-sn-glycéro-3-phosphatidylcholine (DLPC) et de 1,2-dipalmitoyl-sn-glycéro-3-phosphatidylcholine (DPPC) sur des substrats de silicium et de mica. Afin d’amplifier la fonctionnalité de ces patrons, la 1-palmitoyl-2-(16-(S-methyldithio)hexadécanoyl)-sn-glycéro-3-phosphatidylcholine (DSDPPC) et la 1-lauroyl-2-(12-(S-methyldithio)dodédecanoyl)-sn-glycéro-3-phosphatidylcholine (DSDLPC) ont été employées pour la préparation de monocouches chimiquement hétérogènes. Ces analogues de phospholipide possèdent un groupement fonctionnel méthyldisulfide qui est attaché à la fin de l’une des chaînes alkyles. Une étude exhaustive sur la structure de la phase des monocouches Langmuir, Langmuir-Schaefer (LS) et LB de la DSDPPC et de la DSDLPC et leurs différents mélanges avec la DPPC ou la DLPC est présentée dans cette thèse. Tout d’abord, un contrôle limité de la périodicité et de la taille des motifs des stries parallèles de DPPC/DLPC a été obtenu en variant la composition lipidique, la pression de surface et la vitesse de déposition. Dans un mélange binaire de fraction molaire plus grande de lipide condensé que de lipide étendu, une vitesse de déposition plus lente et une plus basse pression de surface ont généré des stries plus continues et larges. L’addition d’un tensioactif, le cholestérol, au mélange binaire équimolaire de la DPPC/DLPC a permis la formation de stries parallèles à de plus hautes pressions de surface. La caractérisation des propriétés physiques des analogues de phospholipides a été nécessaire. La température de transition de phase de la DSDPPC de 44.5 ± 1.5 °C comparativement à 41.5 ± 0.3 °C pour la DPPC. L’isotherme de la DSDPPC est semblable à celui de la DPPC. La monocouche subit une transition de phase liquide-étendue-à-condensée (LE-C) à une pression de surface légèrement supérieure à celle de la DPPC (6 mN m-1 vs. 4 mN m-1) Tout comme la DLPC, la DSDLPC demeure dans la phase LE jusqu’à la rupture de la monocouche. Ces analogues de phospholipide existent dans un état plus étendu tout au long de la compression de la monocouche et montrent des pressions de surface de rupture plus basses que les phospholipides non-modifiés. La morphologie des domaines de monocouches Langmuir de la DPPC et de la DSDPPC à l’interface eau/air a été comparée par la microscopie à angle de Brewster (BAM). La DPPC forme une monocouche homogène à une pression de surface (π) > 10 mN/m, alors que des domaines en forme de fleurs sont formés dans la monocouche de DSDPPC jusqu’à une π ~ 30 mN m-1. La caractérisation de monocouches sur substrat solide a permis de démontrer que le patron de stries parallèles préalablement obtenu avec la DPPC/DLPC était reproduit en utilisant des mélanges de la DSDPPC/DLPC ou de la DPPC/DSDLPC donnant ainsi lieu à des patrons chimiquement hétérogènes. En général, pour obtenir le même état de phase que la DPPC, la monocouche de DSDPPC doit être comprimée à de plus hautes pressions de surface. Le groupement disulfide de ces analogues de phospholipide a été exploité, afin de (i) former des monocouches auto-assemblées sur l’or et de (ii) démontrer la métallisation sélective des terminaisons fonctionnalisées des stries. La spectrométrie de photoélectrons induits par rayons X (XPS) a confirmé que la monocouche modifiée réagit avec la vapeur d’or pour former des thiolates d’or. L’adsorption de l’Au, de l’Ag et du Cu thermiquement évaporé démontre une adsorption préférentielle de la vapeur de métal sur la phase fonctionnalisée de disulfide seulement à des recouvrements sub-monocouche.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’objectif principal de cette recherche est de contribuer au développement de biocapteurs commerciaux utilisant des surfaces de papier comme matrices d’immobilisation, capables de produire un signal colorimétrique perceptible dans les limites sensorielles humaines. Ce type de biocapteur, appelé papier bioactif, pourrait servir par exemple à la détection de substances toxiques ou d’organismes pathogènes. Pour atteindre l’objectif énoncé, ce travail propose l’utilisation de systèmes enzymatiques microencapsulés couchés sur papier. Les enzymes sont des catalyseurs biologiques dotés d’une haute sélectivité, et capables d'accélérer la vitesse de certaines réactions chimiques spécifiques jusqu’à des millions des fois. Les enzymes sont toutefois des substances très sensibles qui perdent facilement leur fonctionnalité, raison pour laquelle il faut les protéger des conditions qui peuvent les endommager. La microencapsulation est une technique qui permet de protéger les enzymes sans les isoler totalement de leur environnement. Elle consiste à emprisonner les enzymes dans une sphère poreuse de taille micrométrique, faite de polymère, qui empêche l’enzyme de s’echapper, mais qui permet la diffusion de substrats à l'intérieur. La microencapsulation utilisée est réalisée à partir d’une émulsion contenant un polymère dissous dans une phase aqueuse avec l’enzyme désirée. Un agent réticulant est ensuite ajouté pour provoquer la formation d'un réseau polymérique à la paroi des gouttelettes d'eau dans l'émulsion. Le polymère ainsi réticulé se solidifie en enfermant l’enzyme à l'intérieur de la capsule. Par la suite, les capsules enzymatiques sont utilisées pour donner au papier les propriétés de biocapteur. Afin d'immobiliser les capsules et l'enzyme sur le papier, une méthode courante dans l’industrie du papier connu sous le nom de couchage à lame est utilisée. Pour ce faire, les microcapsules sont mélangées avec une sauce de couchage qui sera appliquée sur des feuilles de papier. Les paramètres de viscosité i de la sauce et ceux du couchage ont été optimisés afin d'obtenir un couchage uniforme répondant aux normes de l'industrie. Les papiers bioactifs obtenus seront d'abord étudiés pour évaluer si les enzymes sont toujours actives après les traitements appliqués; en effet, tel que mentionné ci-dessus, les enzymes sont des substances très sensibles. Une enzyme très étudiée et qui permet une évaluation facile de son activité, connue sous le nom de laccase, a été utilisée. L'activité enzymatique de la laccase a été évaluée à l’aide des techniques analytiques existantes ou en proposant de nouvelles techniques d’analyse développées dans le laboratoire du groupe Rochefort. Les résultats obtenus démontrent la possibilité d’inclure des systèmes enzymatiques microencapsulés sur papier par couchage à lame, et ce, en utilisant des paramètres à grande échelle, c’est à dire des surfaces de papier de 0.75 x 3 m2 modifiées à des vitesses qui vont jusqu’à 800 m/min. Les biocapteurs ont retenu leur activité malgré un séchage par évaporation de l’eau à l’aide d’une lampe IR de 36 kW. La microencapsulation s’avère une technique efficace pour accroître la stabilité d’entreposage du biocapteur et sa résistance à l’exposition au NaN3, qui est un inhibiteur connu de ce biocapteur. Ce projet de recherche fait partie d'un effort national visant à développer et à mettre sur le marché des papiers bioactifs; il est soutenu par Sentinel, un réseau de recherche du CRSNG.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Analyser le code permet de vérifier ses fonctionnalités, détecter des bogues ou améliorer sa performance. L’analyse du code peut être statique ou dynamique. Des approches combinants les deux analyses sont plus appropriées pour les applications de taille industrielle où l’utilisation individuelle de chaque approche ne peut fournir les résultats souhaités. Les approches combinées appliquent l’analyse dynamique pour déterminer les portions à problèmes dans le code et effectuent par la suite une analyse statique concentrée sur les parties identifiées. Toutefois les outils d’analyse dynamique existants génèrent des données imprécises ou incomplètes, ou aboutissent en un ralentissement inacceptable du temps d’exécution. Lors de ce travail, nous nous intéressons à la génération de graphes d’appels dynamiques complets ainsi que d’autres informations nécessaires à la détection des portions à problèmes dans le code. Pour ceci, nous faisons usage de la technique d’instrumentation dynamique du bytecode Java pour extraire l’information sur les sites d’appels, les sites de création d’objets et construire le graphe d’appel dynamique du programme. Nous démontrons qu’il est possible de profiler dynamiquement une exécution complète d’une application à temps d’exécution non triviale, et d’extraire la totalité de l’information à un coup raisonnable. Des mesures de performance de notre profileur sur trois séries de benchmarks à charges de travail diverses nous ont permis de constater que la moyenne du coût de profilage se situe entre 2.01 et 6.42. Notre outil de génération de graphes dynamiques complets, nommé dyko, constitue également une plateforme extensible pour l’ajout de nouvelles approches d’instrumentation. Nous avons testé une nouvelle technique d’instrumentation des sites de création d’objets qui consiste à adapter les modifications apportées par l’instrumentation au bytecode de chaque méthode. Nous avons aussi testé l’impact de la résolution des sites d’appels sur la performance générale du profileur.