954 resultados para Electromyography analysis techniques
Resumo:
A laboratory experiment that enables the professor to introduce the problematic of sustainable development in pharmaceutical chemistry to undergraduate students is proposed, using a simple synthetic procedure. Cholesteryl acetate is prepared by the esterification of cholesterol using Montmorillonite K10 as heterogeneous catalyst. Cholesterol and cholesteryl acetate are characterized by spectroscopic (¹H RMN, 13C RMN, FTIR) and thermal analysis techniques. The thermal methods are used to introduce the concepts of polymorphism and the nature of mesophases.
Resumo:
The objective of this study was to understand how organizational knowledge governance mechanisms affect individual motivation, opportunity, and the ability to share knowledge (MOA framework), and further, how individual knowledge-sharing conditions affect actual knowledge sharing behaviour. The study followed the knowledge governance approach and a micro-foundations perspective to develop a theoretical model and hypotheses, which could explain the casual relationships between knowledge governance mechanisms, individual knowledge sharing conditions, and individual knowledge sharing behaviour. The quantitative research strategy and multivariate data analysis techniques (SEM) were used in the hypotheses testing with a survey dataset of 256 employees from eleven military schools of Finnish Defence Forces (FDF). The results showed that “performance-based feedback and rewards” affects employee’s “intrinsic motivation towards knowledge sharing”, that “lateral coordination” affects employee’s “knowledge self-efficacy”, and that ”training and development” is positively related to “time availability” for knowledge sharing but affects negatively employee’s knowledge self-efficacy. Individual motivation and knowledge self-efficacy towards knowledge sharing affected knowledge sharing behaviour when work-related knowledge was shared 1) between employees in a department and 2) between employees in different departments, however these factors did not play a crucial role in subordinate–superior knowledge sharing. The findings suggest that individual motivation, opportunity, and the ability towards knowledge sharing affects individual knowledge sharing behaviour differently in different knowledge sharing situations. Furthermore, knowledge governance mechanisms can be used to manage individual-level knowledge sharing conditions and individual knowledge sharing behaviour but their affect also vary in different knowledge sharing situations.
Resumo:
Inorganic-organic sol-gel hybrid coatings can be used for improving and modifying properties of wood-based materials. By selecting a proper precursor, wood can be made water repellent, decay-, moisture- or UV-resistant. However, to control the barrier properties of sol-gel coatings on wood substrates against moisture uptake and weathering, an understanding of the surface morphology and chemistry of the deposited sol-gel coatings on wood substrates is needed. Mechanical pulp is used in production of wood-containing printing papers. The physical and chemical fiber surface characteristics, as created in the chosen mechanical pulp manufacturing process, play a key role in controlling the properties of the end-use product. A detailed understanding of how process parameters influence fiber surfaces can help improving cost-effectiveness of pulp and paper production. The current work focuses on physico-chemical characterization of modified wood-based materials with surface sensitive analytical tools. The overall objectives were, through advanced microscopy and chemical analysis techniques, (i) to collect versatile information about the surface structures of Norway spruce thermomechanical pulp fiber walls and understand how they are influenced by the selected chemical treatments, and (ii) to clarify the effect of various sol-gel coatings on surface structural and chemical properties of wood-based substrates. A special emphasis was on understanding the effect of sol-gel coatings on the water repellency of modified wood and paper surfaces. In the first part of the work, effects of chemical treatment on micro- and nano-scale surface structure of 1st stage TMP latewood fibers from Norway spruce were investigated. The chemicals applied were buffered sodium oxalate and hydrochloric acid. The outer and the inner fiber wall layers of the untreated and chemically treated fibers were separately analyzed by light microscopy, atomic force microscopy and field-emission scanning electron microscopy. The selected characterization methods enabled the demonstration of the effect of different treatments on the fiber surface structure, both visually and quantitatively. The outer fiber wall areas appeared as intact bands surrounding the fiber and they were clearly rougher than areas of exposed inner fiber wall. The roughness of the outer fiber wall areas increased most in the sodium oxalate treatment. The results indicated formation of more surface pores on the exposed inner fiber wall areas than on the corresponding outer fiber wall areas as a result of the chemical treatments. The hydrochloric acid treatment seemed to increase the surface porosity of the inner wall areas. In the second part of the work, three silane-based sol-gel hybrid coatings were selected in order to improve moisture resistance of wood and paper substrates. The coatings differed from each other in terms of having different alkyl (CH3–, CH3-(CH2)7–) and fluorocarbon (CF3–) chains attached to the trialkoxysilane sol-gel precursor. The sol-gel coatings were deposited by a wet coating method, i.e. spraying or spreading by brush. The effect of solgel coatings on surface structural and chemical properties of wood-based substrates was studied by using advanced surface analyzing tools: atomic force microscopy, X-ray photoelectron spectroscopy and time-of-flight secondary ion spectroscopy. The results show that the applied sol-gel coatings, deposited as thin films or particulate coatings, have different effects on surface characteristics of wood and wood-based materials. The coating which has a long hydrocarbon chain (CH3-(CH2)7–) attached to the silane backbone (octyltriethoxysilane) produced the highest hydrophobicity for wood and wood-based materials.
Resumo:
Nowadays, computer-based systems tend to become more complex and control increasingly critical functions affecting different areas of human activities. Failures of such systems might result in loss of human lives as well as significant damage to the environment. Therefore, their safety needs to be ensured. However, the development of safety-critical systems is not a trivial exercise. Hence, to preclude design faults and guarantee the desired behaviour, different industrial standards prescribe the use of rigorous techniques for development and verification of such systems. The more critical the system is, the more rigorous approach should be undertaken. To ensure safety of a critical computer-based system, satisfaction of the safety requirements imposed on this system should be demonstrated. This task involves a number of activities. In particular, a set of the safety requirements is usually derived by conducting various safety analysis techniques. Strong assurance that the system satisfies the safety requirements can be provided by formal methods, i.e., mathematically-based techniques. At the same time, the evidence that the system under consideration meets the imposed safety requirements might be demonstrated by constructing safety cases. However, the overall safety assurance process of critical computerbased systems remains insufficiently defined due to the following reasons. Firstly, there are semantic differences between safety requirements and formal models. Informally represented safety requirements should be translated into the underlying formal language to enable further veri cation. Secondly, the development of formal models of complex systems can be labour-intensive and time consuming. Thirdly, there are only a few well-defined methods for integration of formal verification results into safety cases. This thesis proposes an integrated approach to the rigorous development and verification of safety-critical systems that (1) facilitates elicitation of safety requirements and their incorporation into formal models, (2) simplifies formal modelling and verification by proposing specification and refinement patterns, and (3) assists in the construction of safety cases from the artefacts generated by formal reasoning. Our chosen formal framework is Event-B. It allows us to tackle the complexity of safety-critical systems as well as to structure safety requirements by applying abstraction and stepwise refinement. The Rodin platform, a tool supporting Event-B, assists in automatic model transformations and proof-based verification of the desired system properties. The proposed approach has been validated by several case studies from different application domains.
Resumo:
While traditional entrepreneurship literature addresses the pursuit of entrepreneurial opportunities to a solo entrepreneur, scholars increasingly agree that new ventures are often founded and operated by entrepreneurial teams as collective efforts especially in hightechnology industries. Researchers also suggest that team ventures are more likely to survive and succeed than ventures founded by the individual entrepreneur although specific challenges might relate to multiple individuals being involved in joint entrepreneurial action. In addition to new ventures, entrepreneurial teams are seen central for organizing work in established organizations since the teams are able to create major product and service innovations that drive organizational success. Acknowledgement of the entrepreneurial teams in various organizational contexts has challenged the notion on the individual entrepreneur. However, considering that entrepreneurial teams represent a collective-level phenomenon that bases on interactions between organizational members, entrepreneurial teams may not have been studied as indepth as could be expected from the point of view of the team-level, rather than the individual or the individuals in the team. Many entrepreneurial team studies adopt the individualized view of entrepreneurship and examine the team members’ aggregate characteristics or the role of a lead entrepreneur. The previous understandings might not offer a comprehensive and indepth enough understanding of collectiveness within entrepreneurial teams and team venture performance that often relates to the team-level issues in particular. In addition, as the collective-level of entrepreneurial teams has been approached in various ways in the existing literatures, the phenomenon has been difficult to understand in research and practice. Hence, there is a need to understand entrepreneurial teams at the collective-level through a systematic and comprehensive perspective. This study takes part in the discussions on entrepreneurial teams. The overall objective of this study is to offer a description and understanding of collectiveness within entrepreneurial teams beyond individual(s). The research questions of the study are: 1) what collectiveness within entrepreneurial teams stands for, what constitutes the basic elements of it, and who are included in it, 2) why, how, and when collectiveness emerges or reinforces within entrepreneurial teams, and 3) why collectiveness within entrepreneurial teams matters and how it could be developed or supported. In order to answer the above questions, this study bases on three approaches, two set of empirical data, two analysis techniques, and conceptual study. The first data set consists of 12 qualitative semi-structured interviews with business school students who are seen as prospective entrepreneurs. The data is approached through a social constructionist perspective and analyzed through discourse analysis. The second data set bases on a qualitative multiplecase study approach that aims at theory elaboration. The main data consists of 14 individual and four group semi-structured thematic interviews with members of core entrepreneurial teams of four team startups in high-technology industries. The secondary data includes publicly available documents. This data set is approached through a critical realist perspective and analyzed through systematic thematic analysis. The study is completed through a conceptual study that aims at building a theoretical model of collective-level entrepreneurship drawing from existing literatures on organizational theory and social-psychology. The theoretical work applies a positivist perspective. This study consists of two parts. The first part includes an overview that introduces the research background, knowledge gaps and objectives, research strategy, and key concepts. It also outlines the existing knowledge of entrepreneurial team literature, presents and justifies the choices of paradigms and methods, summarizes the publications, and synthesizes the findings through answering the above mentioned research questions. The second part consists of five publications that address independent research questions but all enable to answer the research questions set for this study as a whole. The findings of this study suggest a map of relevant concepts and their relationships that help grasp collectiveness within entrepreneurial teams. The analyses conducted in the publications suggest that collectiveness within entrepreneurial teams stands for cognitive and affective structures in-between team members including elements of collective entity, collective idea of business, collective effort, collective attitudes and motivations, and collective feelings. Collectiveness within entrepreneurial teams also stands for specific joint entrepreneurial action components in which the structures are constructed. The action components reflect equality and democracy, and open and direct communication in particular. Collectiveness emerges because it is a powerful tool for overcoming individualized barriers to entrepreneurship and due to collectively oriented desire for, collective value orientation to, demand for, and encouragement to team entrepreneurship. Collectiveness emerges and reinforces in processes of joint creation and realization of entrepreneurial opportunities including joint analysis and planning of the opportunities and strategies, decision-making and realization of the opportunities, and evaluation, feedback, and sanctions of entrepreneurial action. Collectiveness matters because it is relevant for potential future entrepreneurs and because it affects the ways collective ventures are initiated and managed. Collectiveness also matters because it is a versatile, dynamic, and malleable phenomenon and the ideas of it can be applied across organizational contexts that require team work in discovering or creating and realizing new opportunities. This study further discusses how the findings add to the existing knowledge of entrepreneurial team literature and how the ideas can be applied in educational, managerial, and policy contexts.
Resumo:
Tämä kandidaatintutkielma käsittelee asiantuntijaorganisaatioiden tilinpäätöstietojen analysointia taloudellisen kilpailija-analyysin tekniikoita hyödyntäen. Tutkielman tavoitteena oli selvittää, miten kuudessa asiantuntijaorganisaatiossa on pyritty parantamaan tai säilyttämään saavutettu markkina-asema vuosina 2011–2014. Tutkimusmuotona käytettiin tilinpäätösanalyysia. Tutkielma on case-yrityksen toimeksiannosta toteutettu taloudellinen kilpailija-analyysi. Tutkimuksen teoriaosa käsittelee taloudellista kilpailija-analyysia osana strategista johdonlaskentatoimea. Teoreettinen viitekehys rakentuu taloudellisen kilpailija-analyysin tekniikoiden, sekä näitä koskevien empiiristen tutkimusten ympärille. Empiirinen osio jakautui kolmeen osaan, joista kaksi ensimmäistä käsittelivät case-yrityksen määrittelemän yritysjoukon seulomista muutaman taloudellisen tunnusluvun avulla. Varsinainen analyysin painopiste oli kuudelle yritykselle toteutetussa taloudellisessa kilpailija-analyysissa. Teorian pohjalta taloudellisen kilpailija-analyysin tutkimuskohteiksi valittiin kustannusrakenteet, kilpailuasema sekä tilinpäätöstiedot. Tutkielman tarkasteluajanjakso oli mielenkiintoinen, sillä vuosina 2011–2013 liikevaihtojen trendi oli jyrkästi laskeva, mutta vuonna 2014 yleisilme kääntyi nousevaksi. Tarkemman analyysin pohjalta johtopäätöksissä esiin nousivat kasvun ja kannattavuuden tunnusluvut. Opinnäytetyön tutkimustuloksissa havaittiin, että parhaiten tutkimuksen ajanjaksolla liikevaihtojen romahduksesta selvinneillä yrityksillä oli laaja-ansaintapohja sekä joustava kulurakenne. Kannattavuuden parhaiten säilyttäneet yritykset olivat tehneet runsaasti säästöjä henkilöstökuluissa, jotka muodostivat koko aineistossa suurimman osuuden kuluista. Vakavaraisuudeltaan vahvimmat yritykset eivät tehneet rajuja leikkauksia kulurakenteistaan, vaan sietivät muita pidempään heikkoa kannattavuutta.
Resumo:
The first objective of this study was to identify appropriate sensory descriptors to assess the astringent sub-qualities of red wine. The influence of pH and ethanol on the sensation of astringency in red wine was evaluated, using a de-alcoholized red wine. A portion of the wine was adjusted to the pH values of 3.2, 3.4, 3.6 and 3.8, and another portion was adjusted to ethanol concentrations of 0%, 6%, 12%, and 15%. In addition, the pH 3.4 and 3.6 treatments were adjusted to an ethanol concentration of 12% and 15% all wines were then assessed sensorially and seventeen terms were identified, through panel discussion, to describe the mouth-feel and taste qualities: velvet, aggressive, silk/satin, dry, fleshy, unripe, pucker viscosity, abrasive, heat, chewy, acidity, grippy/adhesive, bitter, balance, overall astringency, and mouth-coat. Descriptive analysis profiling techniques were used to train the panel and measure the intensity of these attributes. It was found that decreasing pH values (averaged across all ethanol concentrations) showed an increase in the overall astringency of the wine. The combined treatments of ethanol and pH, real wine parameters (pH 3.4 and 3.6; 12% and 15% ethanol) did not have an effect on the perception of the astringent sub-qualities of the wine. A time intensity study was also included using the pH and ethanol adjusted wines, which showed that as the ethanol level of the wines increased so did the time to maximum intensity. The second objective was to identify appropriate sensory descriptors to evaluate the influence of grape maturity and maceration technique (grape skin contact) on the astringency sub-qualities of red vinifera wines from Niagara. The grapes were harvested across two dates, representing an early harvest and a late harvest. A portion of the Cabernet Sauvignon grapes wine was divided into three maceration treatments of oneweek maceration, standard two-week maceration, three-week maceration, and MCM. Another portion of both the early and late harvest Cabernet Sauvignon grapes were chaptalized to yield a final ethanol concentration of 14.5%. The wines were assessed sensorially and thirteen terms were identified, through panel discussion, to describe the mouth-feel and taste qualities: carbon dioxide, pucker, acidity, silk/chamois, dusty/chalky/powdery, sandpaper, numbing, grippy/adhesive, dry, mouthcoat, bitter, balance and, overall astringency. Descriptive analysis techniques were used to train the panel and measure the intensity of these attributes. The data revealed few significant differences in the mouth-feel of the wines with respect to maturity; which included differences in overall astringency and balance. There were varietal differences between Cabernet Sauvignon, Cabernet Franc, and Pinot Noir and differences for Cabernet Sauvignon wines due to the length and manner of maceration and as a result of chaptalization. Statistical analysis revealed a more complex mouth-feel for the Pinot Noir wines; and an increase in the intensity of the astringent sub-qualities as a result of the addition of sugar to the wines. These findings have implications for how processing decisions, such as optimum grape maturity and vinification methods may affect red wine quality.
Resumo:
Notre recherche a pour but de déterminer comment les genres textuels peuvent être exploités dans le design des environnements numériques de travail afin de faciliter l’accomplissement des pratiques textuelles de cadres et de secrétaires dans une municipalité et une administration fédérale canadiennes. À cet effet, le premier objectif consiste à évaluer l’aptitude des environnements numériques de travail à supporter les pratiques textuelles (lecture, écriture et manipulation des textes) de ces employés. Le deuxième objectif est de décrire les rôles des genres textuels au cours des pratiques textuelles. Avec l’exemple du courriel, le troisième objectif vise à examiner comment le genre peut être exploité dans une perspective d’assistance à la réalisation des pratiques textuelles dans les environnements numériques de travail. Cette recherche de nature qualitative comporte une méthodologie en deux étapes. La première étape consiste en un examen minutieux des pratiques textuelles, des difficultés rencontrées au cours de celles-ci, du rôle du genre dans les environnements numériques de travail, ainsi que des indices sollicités au cours de la gestion du courriel. Trois modes de collecte des données qualitatives sont utilisés auprès de 17 cadres et de 17 secrétaires issus de deux administrations publiques : l’entrevue semi-dirigée, le journal de bord et l’enquête cognitive. Les résultats sont examinés à l’aide de stratégies d’analyse de contenu qualitative. La deuxième phase comprend la mise au point d’une chaîne de traitement du courriel, visant à étayer notre réflexion sur le genre textuel et son exploitation dans la conception des environnements numériques de travail. Un corpus de 1703 messages est élaboré à partir d’un échantillon remis par deux cadres gouvernementaux. Les résultats permettent d’abord de dresser un portrait général des pratiques de lecture, d’écriture et de manipulation des textes communes et spécifiques aux cadres et aux secrétaires. L’importance du courriel, qui constitue environ 40% des systèmes notés dans les journaux de bord, est soulignée. Les difficultés rencontrées dans les environnements numériques de travail sont également décrites. Dans un deuxième temps, les rôles du genre au cours des pratiques textuelles sont examinés en fonction d’une matrice tenant à la fois compte de ses dimensions individuelles et collectives, ainsi que de ses trois principales facettes ; la forme, le contenu et la fonction. Ensuite, nous présentons un cadre d’analyse des indices affectant la gestion du courriel qui synthétise le processus d’interprétation des messages par le destinataire. Une typologie des patrons de catégorisation des cadres est également définie, puis employée dans une expérimentation statistique visant la description et la catégorisation automatique du courriel. Au terme de ce processus, on observe des comportements linguistiques marqués en fonction des catégories du courriel. Il s’avère également que la catégorisation automatique basée sur le lexique des messages est beaucoup plus performante que la catégorisation non lexicale. À l’issue de cette recherche, nous suggérons d’enrichir le paradigme traditionnel relevant de l’interaction humain-ordinateur par une sémiotique du genre dans les environnements numériques de travail. L’étude propose également une réflexion sur l’appartenance du courriel à un genre, en ayant recours aux concepts théoriques d’hypergenre, de genre et de sous-genre. Le succès de la catégorisation automatique du courriel en fonction de facettes tributaires du genre (le contenu, la forme et la fonction) offre des perspectives intéressantes sur l’application de ce concept au design des environnements numériques de travail en vue de faciliter l’accomplissement des pratiques textuelles par les employés.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
La vision est un élément très important pour la navigation en général. Grâce à des mécanismes compensatoires les aveugles de naissance ne sont pas handicapés dans leurs compétences spatio-cognitives, ni dans la formation de nouvelles cartes spatiales. Malgré l’essor des études sur la plasticité du cerveau et la navigation chez les aveugles, les substrats neuronaux compensatoires pour la préservation de cette fonction demeurent incompris. Nous avons démontré récemment (article 1) en utilisant une technique d’analyse volumétrique (Voxel-Based Morphometry) que les aveugles de naissance (AN) montrent une diminution de la partie postérieure de l’hippocampe droit, structure cérébrale importante dans la formation de cartes spatiales. Comment les AN forment-ils des cartes cognitives de leur environnement avec un hippocampe postérieur droit qui est significativement réduit ? Pour répondre à cette question nous avons choisi d’exploiter un appareil de substitution sensorielle qui pourrait potentiellement servir à la navigation chez les AN. Cet appareil d’affichage lingual (Tongue display unit -TDU-) retransmet l’information graphique issue d’une caméra sur la langue. Avant de demander à nos sujets de naviguer à l’aide du TDU, il était nécessaire de nous assurer qu’ils pouvaient « voir » des objets dans l’environnement grâce au TDU. Nous avons donc tout d’abord évalué l’acuité « visuo »-tactile (article 2) des sujets AN pour les comparer aux performances des voyants ayant les yeux bandées et munis du TDU. Ensuite les sujets ont appris à négocier un chemin à travers un parcours parsemé d’obstacles i (article 3). Leur tâche consistait à pointer vers (détection), et contourner (négociation) un passage autour des obstacles. Nous avons démontré que les sujets aveugles de naissance non seulement arrivaient à accomplir cette tâche, mais encore avaient une performance meilleure que celle des voyants aux yeux bandés, et ce, malgré l’atrophie structurelle de l’hippocampe postérieur droit, et un système visuel atrophié (Ptito et al., 2008). Pour déterminer quels sont les corrélats neuronaux de la navigation, nous avons créé des routes virtuelles envoyées sur la langue par le biais du TDU que les sujets devaient reconnaitre alors qu’ils étaient dans un scanneur IRMf (article 4). Nous démontrons grâce à ces techniques que les aveugles utilisent un autre réseau cortical impliqué dans la mémoire topographique que les voyants quand ils suivent des routes virtuelles sur la langue. Nous avons mis l’emphase sur des réseaux neuronaux connectant les cortex pariétaux et frontaux au lobe occipital puisque ces réseaux sont renforcés chez les aveugles de naissance. Ces résultats démontrent aussi que la langue peut être utilisée comme une porte d’entrée vers le cerveau en y acheminant des informations sur l’environnement visuel du sujet, lui permettant ainsi d’élaborer des stratégies d’évitement d’obstacles et de se mouvoir adéquatement.
Resumo:
En Argentine, la biotechnologie agricole, spécialement le soya transgénique, a été adoptée de façon fulgurante et elle a provoqué un fort choc dans l’économie nationale et dans la société. Actuellement, dû à la gravité des conséquences de ce phénomène, les médias, et la presse en particulier, ont fait écho du débat. Le but général de cette étude est d’analyser le débat de société sur ce phénomène dans la presse écrite argentine. Pour ce faire, trois objectifs spécifiques ont été retenus : dresser un portrait général du discours; comprendre le contexte politique et économique qui a permis l’insertion de la biotechnologie agricole en Argentine; et analyser les enjeux socioéthiques subjacents au problème des biotechnologies. Pour répondre à ces objectifs, on a effectué une analyse de contenu du discours social circonscrit à la presse écrite argentine entre les années 1999- 2006. La démarche privilégiée inclut la classification des articles de journaux par l’utilisation de mots-clés et l’assignation à des catégories thématiques avec l’assistance des techniques d’analyse de texte par ordinateur. Les résultats de cette étude signalent pour la période étudiée une importante couverture journalistique des biotechnologies agricoles, couverture qui, en général, a été favorable. La quantité d’articles augmente avec les années et montre un virage important des sujets commerciaux à des questions politiques. Le débat autour des conséquences environnementales et sociales de l’application du nouveau modèle agricole sont pauvrement représentées et montrent une apparition plus tardive dans les journaux argentins. Cependant, cela pourrait s’expliquer par un déplacement dans l’axe de la discussion des biotechnologies vers la sojisation qui devient l’enjeu central du débat autour du phénomène agricole.
Resumo:
Résumé Les premières études électrophysiologiques et anatomiques ont établi le rôle crucial du cortex somatosensoriel primaire et secondaire (SI et SII) dans le traitement de l'information somatosensorielle. Toutefois, les récentes avancées en techniques d’imagerie cérébrale ont mis en question leur rôle dans la perception somatosensorielle. La réorganisation du cortex somatosensoriel est un phénomène qui a été proposé comme cause de la douleur du membre fantôme chez les individus amputés. Comme la plupart des études se sont concentrées sur le rôle du SI, une étude plus approfondie est nécessaire. La présente série d'expériences implique une exploration du rôle des régions somatosensorielles dans la perception des stimuli douleureux et non-douleureux chez des volontaires sains et patients avec des douleurs de membre fantôme. La première étude expérimentale présentée dans le chapitre 3 est une méta-analyse des études de neuro-imagerie employant des stimuli nociceptifs chez des volontaires sains. En comparaison aux précédentes, la présente étude permet la génération de cartes quantitatives probabilistes permettant la localisation des régions activées en réponse à des stimuli nociceptifs. Le rôle du cortex somatosensoriel dans la perception consciente de stimuli chauds a été étudié dans le chapitre 4 grâce à une étude d'imagerie par résonance magnétique fonctionnelle, dans laquelle des stimuli thermiques douloureux et non-douloureux ont été administrés de manière contrebalancée. Grâce à cette procédure, la perception de la chaleur fut atténuée par les stimuli douloureux, ce qui permit la comparaison des stimuli consciemment perçus avec ceux qui ne le furent pas. Les résultats ont montrés que les stimulations chaudes perçues ont engendré l’activation de l’aire SI controlatérale, ainsi que de la région SII. Grâce à l’évaluation clinique de patients amputés présentant une altération de leurs perceptions somatosensorielles, il est également possible de dessiner un aperçu des régions corticales qui sous-tendent ces modifications perceptuelles. Dans le chapitre 5 nous avons émis l'hypothèse proposant que les sensations du membre fantôme représentent un corrélat perceptuel de la réorganisation somatotopique des représentations sensorielles corticales. En effet, la réorganisation des sensations peut donner des indices sur les régions impliquées dans la genèse des sensations référées. Ainsi, un protocole d’évaluation sensoriel a été administré à un groupe de patients affligés de douleur au niveau du membre fantôme. Les résultats ont montré que, contrairement aux études précédentes, les sensations diffèrent grandement selon le type et l'intensité des stimuli tactiles, sans évidence de la présence d’un modèle spatialement localisé. Toutefois, les résultats actuels suggèrent que les régions corticales à champs récepteurs bilatéraux présentent également des modifications en réponse à une déafférentation. Ces études présentent une nouvelle image des régions corticales impliquées dans la perception des stimuli somatosensoriels, lesquelles comprennent les aires SI et SII, ainsi que l'insula. Les résultats sont pertinents à notre compréhension des corrélats neurologiques de la perception somatosensorielle consciente.
Resumo:
Dans cette thèse, nous présentons les problèmes d’échange de documents d'affaires et proposons une méthode pour y remédier. Nous proposons une méthodologie pour adapter les standards d’affaires basés sur XML aux technologies du Web sémantique en utilisant la transformation des documents définis en DTD ou XML Schema vers une représentation ontologique en OWL 2. Ensuite, nous proposons une approche basée sur l'analyse formelle de concept pour regrouper les classes de l'ontologie partageant une certaine sémantique dans le but d'améliorer la qualité, la lisibilité et la représentation de l'ontologie. Enfin, nous proposons l’alignement d'ontologies pour déterminer les liens sémantiques entre les ontologies d'affaires hétérogènes générés par le processus de transformation pour aider les entreprises à communiquer fructueusement.
Resumo:
Ce mémoire présente une analyse homogène et rigoureuse de l’échantillon d’étoiles naines blanches situées à moins de 20 pc du Soleil. L’objectif principal de cette étude est d’obtenir un modèle statistiquement viable de l’échantillon le plus représentatif de la population des naines blanches. À partir de l’échantillon défini par Holberg et al. (2008), il a fallu dans un premier temps réunir le plus d’information possible sur toutes les candidates locales sous la forme de spectres visibles et de données photométriques. En utilisant les modèles d’atmosphère de naines blanches les plus récents de Tremblay & Bergeron (2009), ainsi que différentes techniques d’analyse, il a été permis d’obtenir, de façon homogène, les paramètres atmosphériques (Teff et log g) des naines blanches de cet échantillon. La technique spectroscopique, c.-à-d. la mesure de Teff et log g par l’ajustement des raies spectrales, fut appliquée à toutes les étoiles de notre échantillon pour lesquelles un spectre visible présentant des raies assez fortes était disponible. Pour les étoiles avec des données photométriques, la distribution d’énergie combinée à la parallaxe trigonométrique, lorsque mesurée, permettent de déterminer les paramètres atmosphériques ainsi que la composition chimique de l’étoile. Un catalogue révisé des naines blanches dans le voisinage solaire est présenté qui inclut tous les paramètres atmosphériques nouvellement determinés. L’analyse globale qui en découle est ensuite exposée, incluant une étude de la distribution de la composition chimique des naines blanches locales, de la distribution de masse et de la fonction luminosité.