971 resultados para base de données MDB
Resumo:
Un outil de contrôle qualité (OCQ) a été développé pour valider les données : elles peuvent être qualifiées selon 3 états : bon, douteux ou faux. Ils existent différents stades de validation : - stade T0.5 : pré-qualification automatique sur la base de seuils fixés avec 3 états : bon, douteux et faux. - Stade T1 : contrôle visuel et modification manuelle de l’état de qualité - Stade T2 : données corrigées (après étalonnage). Ce document synthétise les informations permettant de qualifier les données au stade T1 et T2 : - contrôles in-situ de la sonde multiparamètre réalisés par le laboratoire LER/MPL, - historique des opérations de maintenance pendant la période de déploiement, - constat de vérification des sondes multiparamètres après campagne.té et la fluorescence, en surface et fond)..
Resumo:
La station de mesure Molit entre dans la gamme des produits MAREL. Cette gamme est constituée d’outils développés pour l’observation en continu de paramètres hydrologiques. La bouée Molit a été déployée en baie de Vilaine du 22 février 2013 au 25 octobre 2013. Cette station est équipée d’une sonde multiparamètre MP6 qui mesure les paramètres : température, salinité, oxygène dissous, turbidité et fluorescence. Les mesures sont réalisées à 2 niveaux (surface et fond) avec une fréquence d’une mesure horaire. Les données acquises par la bouée MOLIT sont transmises par liaison GSM numérique à la station de gestion Marel Vilaine où elles sont validées. Les données peuvent être consultées sur le site web : http://www.ifremer.fr/co-en/. Un outil de contrôle qualité (OCQ) a été développé pour valider les données. Elles peuvent être qualifiées selon 3 états : bon, douteux ou faux. Ils existent différents stades de validation : - stade T0.5 : pré-qualification automatique sur la base de seuils fixés avec 3 états : bon, douteux et faux. - Stade T1 : contrôle visuel et modification manuelle de l’état de qualité - Stade T2 : données corrigées (après étalonnage). Ce document synthétise les informations permettant de qualifier les données au stade T1 et T2 : - contrôles in-situ de la sonde multiparamètre réalisés par le laboratoire LER/MPL, - historique des opérations de maintenance pendant la période de déploiement, - constat de vérification des sondes multiparamètres après campagne. En 2013, nous avons récupéré un seul constat de vérification après campagne (celui concernant la période du 3 juin au 8 août).
Resumo:
La préparation du S.A.G.E. Seudre se poursuit. Il doit permettre dans un premier temps d'informer, de communiquer, de faire un état des lieux de l'existant concernant les aspects environnementaux et socio-économique, la gestion de l'eau, de sa qualité ou d'autres points. L'IFREMER, qui a récemment acquis un logiciel de système d'information géographique l'a exploité pour réaliser un «début d'atlas» sur la Seudre. Cet atlas est donc mis à disposition des utilisateurs potentiels par l'IFREMER, comme base de réflexion. Un stage de D.E.S.S. a été proposé à l'Université de Montpellier, qui forme des étudiants en aménagement du littoral. C'était une bonne occasion de confier cette pré-étude de S.A.G.E. Seudre à une stagiaire qui connaissait déjà la Seudre pour avoir fait un stage de maîtrise au laboratoire Environnement Littoral de l'IFREMER à La Tremblade et, de surcroît, dont le nom évoque la déesse de la SAGEsse.
Resumo:
La sécurité des systèmes de transports intelligents est au centre de tous les débats. Afin de s’assurer un fonctionnement sécuritaire, il est nécessaire de pouvoir vérifier le bon fonctionnement des capteurs permettant d’avoir une parfaite connaissance de l’environnement et de l’état du véhicule. Cette thèse présente une nouvelle solution de détection et d’identification de faute pouvant apparaitre sur les capteurs embarqués d’un véhicule intelligent. Cette méthode est basée sur la redondance analytique des données, consistant à estimer une même mesure à l’aide de capteurs de différentes natures. Cette mesure subit alors une transformation non linéaire permettant à la fois d’accroitre la sensibilité aux fautes et d’être plus robuste aux bruits. Cette étude propose plusieurs solutions de transformation et d’estimation qui seront évaluées en simulation avant de proposer une méthode d’optimisation de la prise de décision en fonction de critères choisis par l’utilisateur. La description de l’architecture, des méthodes employées ainsi que des équations permettant l’établissement de celle-ci seront décrites dans le chapitre 3. L’évaluation en simulation des performances de l’architecture sera effectuée dans le chapitre 4 avant une analyse finale des résultats ainsi qu’une comparaison avec une solution existante dans le dernier chapitre, permettant la validation de notre approche.
Resumo:
Le laboratoire DOMUS développe des applications sensibles au contexte dans une perspective d’intelligence ambiante. L’architecture utilisée présentement pour gérer le contexte a atteint ses limites en termes de capacité d’évoluer, d’intégration de nouvelles sources de données et de nouveaux capteurs et actionneurs, de capacité de partage entre les applications et de capacité de raisonnement. Ce projet de recherche a pour objectif de développer un nouveau modèle, un gestionnaire de contexte et de proposer une architecture pour les applications d’assistance installées dans un habitat intelligent. Le modèle doit répondre aux exigences suivantes : commun, abstrait, évolutif, décentralisé, performant et une accessibilité uniforme. Le gestionnaire du contexte doit permettre de gérer les événements et offrir des capacités de raisonnement sur les données et le contexte. La nouvelle architecture doit simplifier le développement d’applications d’assistance et la gestion du contexte. Les applications doivent pouvoir se mettre à jour si le modèle de données évolue dans le temps sans nécessiter de modification dans le code source. Le nouveau modèle de données repose sur une ontologie définie avec le langage OWL 2 DL. L’architecture pour les applications d’assistance utilise le cadre d’applications Apache Jena pour la gestion des requêtes SPARQL et un dépôt RDF pour le stockage des données. Une bibliothèque Java a été développée pour gérer la correspondance entre le modèle de données et le modèle Java. Le serveur d’événements est basé sur le projet OpenIoT et utilise un dépôt RDF. Il fournit une API pour la gestion des capteurs / événements et des actionneurs / actions. Les choix d’implémentation et l’utilisation d’une ontologie comme modèle de données et des technologies du Web sémantique (OWL, SPARQL et dépôt RDF) pour les applications d’assistance dans un habitat intelligent ont été validés par des tests intensifs et l’adaptation d’applications déjà existantes au laboratoire. L’utilisation d’une ontologie a pour avantage une intégration des déductions et du raisonnement directement dans le modèle de données et non au niveau du code des applications.
Resumo:
Le rôle central du phytoplancton à la base de la chaîne trophique aquatique motive une compréhension étayée des facteurs pouvant faire varier les populations et la composition des populations de phytoplancton. Cette compréhension est d'autant plus importante dans le contexte actuel, puisque nous savons que l'humain influence le climat et les milieux aquatiques par sa présence et ses activités. Nous tentons donc, dans notre étude, de déterminer les variables environnementales importantes qui dictent les changements de taille et de composition de la communauté de phytoplancton à l'échelle d'un lac et d'en déduire les niches réalisées des différentes espèces du lac. L'utilisation d'une station mobile de manière verticale dans le lac Montjoie (Saint-Denis-de-Brompton) a permis de collecter des données in situ à haute fréquence et résolution temporelle caractérisant la colonne d'eau. Combinée à ces mesures, une banque de données sur l'abondance de différentes catégories de phytoplancton a été créée à l'aide d'un cytomètre en flux imageur (IFCB) et d'un programme de reconnaissance d'images qui lui est associé. En combinant ces données nous avons déterminé que la température moyenne au-dessus de la thermocline et que la profondeur limite de chlorophylle (2 écarts-types sous le maximum de chlorophylle) étaient les 2 variables (parmi les variables mesurées) les plus appropriées pour déterminer les niches réalisées de nos catégories de phytoplancton. À l'aide de ces 2 variables, nous avons pu déterminer les niches réalisées d'une trentaine de catégories présentes dans notre lac. Les niches ont été déterminées à la fois sur les données d'abondance et sur les données de taux de croissance nette à l'aide de deux méthodes différentes, soit l'analyse canonique des correspondances (CCA) et la maximisation de l'entropie d'information (MaxEnt). Ce sont finalement les niches déterminées avec les taux de croissance nette qui sont les plus pertinentes. Les deux méthodes ont donné des résultats semblables, mais c'est MaxEnt qui est la plus versatile pour l'ajout de nouvelles variables explicatives et c'est donc celle-ci que nous privilégierons dans le futur.
Resumo:
Les mesures satellitaires de réflectance de télédétection (Rrs) associée à la fluorescence de la chlorophylle-a induite par le soleil (FCIS), notées Rrs,f , sont largement utilisées dans le domaine de l’océanographie converties sous la forme de rendement quantique de la fluorescence (QYF). Le QYF permet de déterminer l’impact de l’environnement sur la croissance du phytoplancton. Tout comme les autres mesures qui reposent sur la luminance montante, le QYF, et donc la Rrs,f , sont influencés par les effets de bidirectionnalité. Ainsi, sachant que la variabilité naturelle du QYF est faible, les biais engendrés par une normalisation inadéquate de la Rrs,f peuvent avoir des impacts importants sur l’interprétation des mesures de QYF à l’échelle planétaire. La méthode actuelle utilisée pour corriger la dépendance angulaire du signal observé dans la bande de fluorescence par le spectroradiomètre imageur à résolution moyenne (MODIS), embarqué à bord du satellite Aqua, repose sur l’application d’une table de correspondance (LUT) développée par Morel et al. (2002). Toutefois, l’approche de Morel et al. (2002) ne tient pas compte du caractère isotrope de la FCIS ce qui induit des biais systématiques sur les mesures de Rrs,f selon la latitude, par exemple. Dans ce mémoire, une nouvelle méthode de calcul de la LUT ayant pour but de réduire ces biais est introduite. Tout d’abord, celle-ci intègre une mise à jour des propriétés optiques inhérentes (IOPs) dans le modèle de transfert radiatif sur la base de publications plus récentes. Ensuite, la gamme spectrale de son application est élargie à la bande de fluorescence contrairement à la méthode actuelle qui se limite à la longueur d’onde de 660 nm. Finalement, la LUT révisée tient compte des trois composantes principales de la réflectance de télédétection que sont (1) la rétrodiffusion élastique de la lumière par les molécules d’eau et par les particules en suspension, (2) la diffusion Raman (inélastique) par les molécules d’eau et (3) la FCIS. Les résultats de Rrs,f normalisées avec la nouvelle méthode présentent une différence de dispersion moyenne par rapport à celle obtenue par l’application de la méthode de Morel et al. (2002) de l’ordre de -15 %. Des différences significatives, de l’ordre de -22 %, sont observées à de grands angles d’observation et d’éclairement (> 55 %).
Resumo:
L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.
Resumo:
This paper reports on the performance of 58 11 to 12-year-olds on a spatial visualization task and a spatial orientation task. The students completed these tasks and explained their thinking during individual interviews. The qualitative data were analysed to inform pedagogical content knowledge for spatial activities. The study revealed that “matching” or “matching and eliminating” were the typical strategies that students employed on these spatial tasks. However, errors in making associations between parts of the same or different shapes were noted. Students also experienced general difficulties with visual memory and language use to explain their thinking. The students’ specific difficulties in spatial visualization related to obscured items, the perspective used, and the placement and orientation of shapes.
Resumo:
Despite the numerous observations that dynamic capabilities lie at the source of competitive advantage, we still have limited knowledge as to how access to firm-based resources and changes to these affect the development of dynamic capabilities. In this paper, we examine founder human capital, access to employee human capital, access to technological expertise, access to other specific expertise, and access to two types of tangible resources in a sample of new firms in Sweden. We empirically measure four dynamic capabilities and find that the nature and effect of resources employed in the development of these capabilities vary greatly. For the most part, there are positive effects stemming from access to particular resources. However, for some resources, such as access to employee human capital and access to financial capital, unexpected negative effects also appear. This study therefore provides statistical evidence as to the varying role of resources in capability development. Importantly, we also find that changes in resource bases have more influential roles in the development of dynamic capabilities than the resource stock variables that were measured at an earlier stage of firm development. This provides empirical support for the notion of treating the firm as a dynamic flow of resources as opposed to a static stock. This finding also highlights the importance of longitudinal designs in studies of dynamic capability development. Further recommendations for future empirical studies of dynamic capabilities are presented.
Resumo:
Manual calibration of large and dynamic networks of cameras is labour intensive and time consuming. This is a strong motivator for the development of automatic calibration methods. Automatic calibration relies on the ability to find correspondences between multiple views of the same scene. If the cameras are sparsely placed, this can be a very difficult task. This PhD project focuses on the further development of uncalibrated wide baseline matching techniques.