952 resultados para Données--Compression (Télécommunications)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Behavior of granular material subjected to repeated load triaxial compression tests is characterized by a model based on rate process theory. Starting with the Arrhenius equation from chemical kinetics, the relationship of temperature, shear stress, normal stress and volume change to deformation rate is developed. The proposed model equation includes these factors as a product of exponential terms. An empirical relationship between deformation and the cube root of the number of stress applications at constant temperature and normal stress is combined with the rate equation to yield an integrated relationship of temperature, deviator stress, confining pressure and number of deviator stress applications to axial strain. The experimental program consists of 64 repeated load triaxial compression tests, 52 on untreated crushed stone and 12 on the same crushed stone material treated with 4% asphalt cement. Results were analyzed with multiple linear regression techniques and show substantial agreement with the model equations. Experimental results fit the rate equation somewhat better than the integrated equation when all variable quantities are considered. The coefficient of shear temperature gives the activation enthalpy, which is about 4.7 kilocalories/mole for untreated material and 39.4 kilocalories/mole for asphalt-treated material. This indicates the activation enthalpy is about that of the pore fluid. The proportionality coefficient of deviator stress may be used to measure flow unit volume. The volumes thus determined for untreated and asphalt-treated material are not substantially different. This may be coincidental since comparison with flow unit volumes reported by others indicates flow unit volume is related to gradation of untreated material. The flow unit volume of asphalt-treated material may relate to asphalt cement content. The proposed model equations provide a more rational basis for further studies of factors affecting deformation of granular materials under stress similar to that in pavement subjected to transient traffic loads.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les besoins toujours croissants en terme de transfert de données numériques poussent au développement de nouvelles technologies pour accroître la capacité des réseaux, notamment en ce qui concerne les réseaux de fibre optique. Parmi ces nouvelles technologies, le multiplexage spatial permet de multiplier la capacité des liens optiques actuels. Nous nous intéressons particulièrement à une forme de multiplexage spatial utilisant le moment cinétique orbital de la lumière comme base orthogonale pour séparer un certain nombre de canaux. Nous présentons d’abord les notions d’électromagnétisme et de physique nécessaires à la compréhension des développements ultérieurs. Les équations de Maxwell sont dérivées afin d’expliquer les modes scalaires et vectoriels de la fibre optique. Nous présentons également d’autres propriétés modales, soit la coupure des modes, et les indices de groupe et de dispersion. La notion de moment cinétique orbital est ensuite introduite, avec plus particulièrement ses applications dans le domaine des télécommunications. Dans une seconde partie, nous proposons la carte modale comme un outil pour aider au design des fibres optiques à quelques modes. Nous développons la solution vectorielle des équations de coupure des modes pour les fibres en anneau, puis nous généralisons ces équations pour tous les profils de fibres à trois couches. Enfin, nous donnons quelques exemples d’application de la carte modale. Dans la troisième partie, nous présentons des designs de fibres pour la transmission des modes avec un moment cinétique orbital. Les outils développés dans la seconde partie sont utilisés pour effectuer ces designs. Un premier design de fibre, caractérisé par un centre creux, est étudié et démontré. Puis un second design, une famille de fibres avec un profil en anneau, est étudié. Des mesures d’indice effectif et d’indice de groupe sont effectuées sur ces fibres. Les outils et les fibres développés auront permis une meilleure compréhension de la transmission dans la fibre optique des modes ayant un moment cinétique orbital. Nous espérons que ces avancements aideront à développer prochainement des systèmes de communications performants utilisant le multiplexage spatial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La stratégie actuelle de contrôle de la qualité de l’anode est inadéquate pour détecter les anodes défectueuses avant qu’elles ne soient installées dans les cuves d’électrolyse. Des travaux antérieurs ont porté sur la modélisation du procédé de fabrication des anodes afin de prédire leurs propriétés directement après la cuisson en utilisant des méthodes statistiques multivariées. La stratégie de carottage des anodes utilisée à l’usine partenaire fait en sorte que ce modèle ne peut être utilisé que pour prédire les propriétés des anodes cuites aux positions les plus chaudes et les plus froides du four à cuire. Le travail actuel propose une stratégie pour considérer l’histoire thermique des anodes cuites à n’importe quelle position et permettre de prédire leurs propriétés. Il est montré qu’en combinant des variables binaires pour définir l’alvéole et la position de cuisson avec les données routinières mesurées sur le four à cuire, les profils de température des anodes cuites à différentes positions peuvent être prédits. Également, ces données ont été incluses dans le modèle pour la prédiction des propriétés des anodes. Les résultats de prédiction ont été validés en effectuant du carottage supplémentaire et les performances du modèle sont concluantes pour la densité apparente et réelle, la force de compression, la réactivité à l’air et le Lc et ce peu importe la position de cuisson.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’arrivée du spectromètre imageur à transformée de Fourier SITELLE au télescope Canada-France-Hawaï souligne la nécessité d’un calculateur de temps d’exposition permettant aux utilisateurs de l’instrument de planifier leurs observations et leurs demandes de temps de télescope. Une grande partie de mon projet est ainsi le développement d’un code de simulation capable de reproduire les résultats de SITELLE et de son prédecesseur SpIOMM, installé à l’Observatoire du Mont-Mégantic. La précision des simulations est confirmée par une comparaison avec des données SpIOMM et les premières observations de SITELLE. La seconde partie de mon projet consiste en une analyse spectrale de données observationelles. Prenant avantage du grand champ de vue de SpIOMM, les caractéristiques du gaz ionisé (vitesse radiale et intensité) sont étudiées pour l’ensemble de la paire de galaxies en interaction Arp 72. La courbe de rotation dans le visible ainsi que le gradient de métallicité de NGC 5996, la galaxie principale d’Arp 72, sont obtenues ici pour la première fois. La galaxie spirale NGC 7320 est également étudiée à partir d’observations faites à la fois avec SpIOMM et SITELLE.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Au Canada, les avalanches constituent le géorisque le plus dangereux en période hivernale. On enregistre annuellement d’importants coûts économiques et sociaux associés aux impacts de ce phénomène naturel. Par exemple, la fermeture de routes en cas de risque d’avalanche est estimée à 5 millions de dollars (Jamieson et Stethem, 2002). La prévision des avalanches est, de nos jours, la meilleure méthode afin d’éviter ces coûts. Au Canada, cela s’effectue de façon ponctuelle à l’aide de méthodes manuelles tel que le test de compression (CAA, 2014). Les modèles de simulation du couvert neigeux permettent d’étendre les prévisions à l’ensemble d’une région et ainsi, atteindre certains lieux difficilement accessibles pour l’homme. On tente actuellement d’adapter le modèle SNOWPACK aux conditions canadiennes et plusieurs études ont eu pour but d’améliorer les simulations produites par celui-ci. Cette étude vise donc également l’amélioration des simulations par l’intégration des paramètres de végétation. L’objectif de l’étude est de paramétrer, pour la première fois, le module de végétation de SNOWPACK avec les données récoltées dans la réserve faunique des Chic-Chocs. Nous pourrons ainsi évaluer l’impact de la végétation sur la modélisation du couvert nival. Nous avons donc, lors de sorties de terrain, recueillis les données de neige et de végétation au niveau de quatre sites d’étude. Nous avons par la suite réalisé les simulations avec SNOWPACK et comparer les résultats des simulations avec et sans végétation aux données de terrain. L’étude nous révèle que le modèle diminue la quantité de neige au sol ainsi que la densité du manteau neigeux en présence de végétation. De plus nous avons pu constater que l’inclusion du module de végétation permet d’obtenir des données qui se rapprochent davantage de ce qui a été observé sur le terrain.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le dimensionnement basé sur la performance (DBP), dans une approche déterministe, caractérise les objectifs de performance par rapport aux niveaux de performance souhaités. Les objectifs de performance sont alors associés à l'état d'endommagement et au niveau de risque sismique établis. Malgré cette approche rationnelle, son application est encore difficile. De ce fait, des outils fiables pour la capture de l'évolution, de la distribution et de la quantification de l'endommagement sont nécessaires. De plus, tous les phénomènes liés à la non-linéarité (matériaux et déformations) doivent également être pris en considération. Ainsi, cette recherche montre comment la mécanique de l'endommagement pourrait contribuer à résoudre cette problématique avec une adaptation de la théorie du champ de compression modifiée et d'autres théories complémentaires. La formulation proposée adaptée pour des charges monotones, cycliques et de type pushover permet de considérer les effets non linéaires liés au cisaillement couplé avec les mécanismes de flexion et de charge axiale. Cette formulation est spécialement appliquée à l'analyse non linéaire des éléments structuraux en béton soumis aux effets de cisaillement non égligeables. Cette nouvelle approche mise en œuvre dans EfiCoS (programme d'éléments finis basé sur la mécanique de l'endommagement), y compris les critères de modélisation, sont également présentés ici. Des calibrations de cette nouvelle approche en comparant les prédictions avec des données expérimentales ont été réalisées pour les murs de refend en béton armé ainsi que pour des poutres et des piliers de pont où les effets de cisaillement doivent être pris en considération. Cette nouvelle version améliorée du logiciel EFiCoS a démontrée être capable d'évaluer avec précision les paramètres associés à la performance globale tels que les déplacements, la résistance du système, les effets liés à la réponse cyclique et la quantification, l'évolution et la distribution de l'endommagement. Des résultats remarquables ont également été obtenus en référence à la détection appropriée des états limites d'ingénierie tels que la fissuration, les déformations unitaires, l'éclatement de l'enrobage, l'écrasement du noyau, la plastification locale des barres d'armature et la dégradation du système, entre autres. Comme un outil pratique d'application du DBP, des relations entre les indices d'endommagement prédits et les niveaux de performance ont été obtenus et exprimés sous forme de graphiques et de tableaux. Ces graphiques ont été développés en fonction du déplacement relatif et de la ductilité de déplacement. Un tableau particulier a été développé pour relier les états limites d'ingénierie, l'endommagement, le déplacement relatif et les niveaux de performance traditionnels. Les résultats ont démontré une excellente correspondance avec les données expérimentales, faisant de la formulation proposée et de la nouvelle version d'EfiCoS des outils puissants pour l'application de la méthodologie du DBP, dans une approche déterministe.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Spinal cord injury (SCI) is a devastating neurological disorder that affects thousands of people each year. Although in recent decades significant progress has been made in relation to understanding the molecular and cellular events underlying the nervous damage, spinal cord injury is still a highly disabling condition for which there is no curative therapy. People affected by spinal cord injuries manifested dysfunction or loss, temporary or permanent, of motor, sensory and / or autonomic functions depending on the spinal lesion damaged. Currently, the incidence rate of this type of injury is approximately 15-40 cases per million people worldwide. At the origin of these lesions are: road accidents, falls, interpersonal violence and the practice of sports. In this work we placed the hypothesis that HA is one of the component of the scar tissue formed after a compressive SCI, that it is likely synthetised by the perilesional glial cells and that it might support the permeation of the glial scar during the late phase of SCI. Nowadays, much focus is drawn on the recovery of CNS function, made impossible after SCI due to the high content of sulfated proteoglycans in the extracellular matrix. Counterbalancing the ratio between these proteoglycans and hyaluronic acid could be one of the experimental therapy to re-permeate the glial scar tissue formed after SCI, making possible axonal regrowth and functional recovery. Therefore, we established a model of spinal cord compression in mice and studied the glial scar tissue, particularly through the characterization of the expression of enzymes related to the metabolism of HA and the subsequent concentration thereof at different distances of the lesion epicenter. Our results show that the lesion induced in mice shows results similar to those produced in human lesions, in terms of histologic similarities and behavioral results. but these animals demonstrate an impressive spontaneous reorganization mechanism of the spinal cord tissue that occurs after injury and allows for partial recovery of the functions of the CNS. As regards the study of the glial scar, changes were recorded at the level of mRNA expression of enzymes metabolizing HA i.e., after injury there was a decreased expression of HA synthases 1-2 (HAS 1-2) and an increase of the expression HAS3 synthase mRNA, as well as the enzymes responsible for the HA catabolism, HYAL 1-2. But the amount of HA measured through the ELISA test was found unchanged after injury, it is not possible to explain this fact only with the change of expression of enzymes. At two weeks and in response to SCI, we found synthesized HA by reactive astrocytes and probably by others like microglial cells as it was advanced by the HA/GFAP+ and HA/IBA1+ cells co-location.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les unités linguistiques sous-lexicales (p.ex., la syllabe, le phonème ou le phone) jouent un rôle crucial dans le traitement langagier. En particulier, le traitement langagier est profondément influencé par la distribution de ces unités. Par exemple, les syllabes les plus fréquentes sont articulées plus rapidement. Il est donc important d’avoir accès à des outils permettant de créer du matériel expérimental ou clinique pour l’étude du langage normal ou pathologique qui soit représentatif de l’utilisation des syllabes et des phones dans la langue orale. L’accès à ce type d’outil permet également de comparer des stimuli langagiers en fonction de leurs statistiques distributionnelles, ou encore d’étudier l’impact de ces statistiques sur le traitement langagier dans différentes populations. Pourtant, jusqu’à ce jour, aucun outil n’était disponible sur l’utilisation des unités linguistiques sous-lexicales du français oral québécois. Afin de combler cette lacune, un vaste corpus du français québécois oral spontané a été élaboré à partir d’enregistrements de 184 locuteurs québécois. Une base de données de syllabes et une base de données de phones ont ensuite été construites à partir de ce corpus, offrant une foule d’informations sur la structure des unités et sur leurs statistiques distributionnelles. Le fruit de ce projet, intitulé SyllabO +, sera rendu disponible en ligne en accès libre via le site web http://speechneurolab.ca/fr/syllabo dès la publication de l’article le décrivant. Cet outil incomparable sera d’une grande utilité dans plusieurs domaines, tels que les neurosciences cognitives, la psycholinguistique, la psychologie expérimentale, la phonétique, la phonologie, l’orthophonie et l’étude de l’acquisition des langues.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les gestionnaires des ventes peuvent se servir de modèles de décision pour répartir de façon optimale les ressources marketing entre les produits et territoires. Ces modèles sont des équations mathématiques qui représentent la façon dont les ventes réagissent aux efforts marketing et peuvent être calibrés à partir de données objectives ou subjectives. Little (1971) affirme que les données subjectives sont plus efficaces parce qu'elles contiennent toute l'expérience des gestionnaires. À partir des recommandations de Little, Lodish (1971) a développé le modèle CALLPLAN afin d'aider les gestionnaires à répartir le temps de visites des représentants entre les clients ou les produits, de façon à maximiser les profits de l'entreprise. Pour calibrer ce modèle, les utilisateurs doivent utiliser les cinq données suivantes : les ventes prévues si aucune visite n'est effectuée, les ventes prévues avec une réduction de 50% des visites actuellement effectuées, les ventes actuelles, les ventes prévues si le nombre de visites est augmenté de 50% et les ventes prévues en effectuant un nombre infiniment grand de visites. Nous avons constaté que les modèles de répartition se basent tous sur les mêmes données pour estimer les paramètres des fonctions de réponse des ventes et que la valeur de ces données n'a jamais été évaluée empiriquement. Cette étude visait donc à évaluer la valeur des données subjectives utilisées dans la procédure d'estimation des paramètres du modèle CALLPLAN. À l'aide de simulations de jugements sur ordinateur, nous avons vérifié si la procédure d'estimation, telle que proposée par Lodish, peut être améliorée. Nous avons trouvé en essayant différentes combinaisons de cinq points, qu'effectivement la combinaison de Lodish n'est pas la meilleure pour estimer adéquatement les paramètres du modèle CALLPLAN. Quand la fonction de réponse des ventes est à priori en forme de S, les points utilisés devraient être les suivants ; les ventes prévues si aucune visite n'est effectuée (min), les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué (max), les ventes prévues avec le nombre de visites qui correspond au point d'inflexion (P.l.) de la fonction de réponse et les ventes prévues avec le nombre de visites qui correspond à la mi-distance du point d'inflexion et du niveau de ressource min. Quand la fonction de réponse est à priori concave, la combinaison de points utilisée devrait être ; les ventes prévues si aucune visite n'est effectuée, les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué, les ventes prévues en réduisant au quart le nombre de visites actuellement effectué et les ventes prévues en diminuant de 50% le nombre de visite actuellement utilisé. Nous avons également observé que les jugements concernant les ventes minimales et les ventes maximales influencent grandement les estimés. Nous avons donc trouvé un moyen d'atténuer leur impact en calculant des estimés moyens générés par les jugements individuels d'un groupe déjugés.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans la plupart des décisions à caractère économique, les données boursières jouent un rôle prépondérant. Pourtant, les données comptables dont le bénéfice comptable figurant aux états financiers, servent à fournir de l'information utile pour la prise de décision à caractère économique. Le débat sur l'utilité des données comptables publiées dans les états financiers continue à avoir lieu. Une des questions le plus souvent posée porte plus spécifiquement sur l'utilité de ces données dans les décisions de sélection et d'évaluation de performance de portefeuille. Les résultats de cette recherche nous ont permis de conclure que les décisions de sélection et d'évaluation de performance de portefeuille fondées sur des données comptables sont cohérentes avec les mêmes décisions basées sur des données boursières.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les termes et les conditions de notre sécurité à tous, de nos rapports sociaux, politiques, économiques et de notre développement doivent être repensés et le temps nous semble compté. Les problèmes qui nous assaillent de toutes parts apparaissent parfois tellement définitifs qu'il ne faut pas s'étonner de voir notre société effectuer un repli narcissique. La tentation est grande, pour celui qui en a les moyens, de couper le contact et de bâtir, ailleurs, potager biologique et microcosme humanisé. Il pourrait d'ailleurs en émerger un modèle de société, à la mesure de l'homme, qui, ultimement, pourrait transformer l'ensemble des rapports humains, sociaux et politiques. Cette utopie, nous devons y travailler, et elle semble devoir passer dès maintenant par le potager biologique et le microcosme humanisé. Mais le problème global, planétaire, demeure entier. D'où l'importance inestimable, aussi, du mouvement pour la paix. Son étendue à travers le monde autorise peut-être à entretenir l'espoir que, pour paraphraser Albert Jacquard, à l'hominisation succédera l’humanisation. Cet espoir est peut-être encore plus fondé depuis que le thème de la paix a gagné les classes et les salles de cours d'un façon explicite et importante. L'enseignement relatif à la paix occupe une place importante au sein des efforts globaux de paix. Cet exposé porte sur les "études sur la paix". Par "études sur la paix", il faut entendre un ensemble de cours collégiaux et universitaires, parfois accompagnés d'activités ou de recherches, visant à explorer académiquement des connaissances, des habiletés et des valeurs pertinentes au problème global de la paix. Il s'agit d'un ensemble de cours spécifiques, mais ceux-ci s'inscrivent aussi dans une démarche globale qui peut pratiquement être assimilée à un "mouvement". La définition qui précède n'est, en fait, qu'exploratoire. L'objet, essentiel de ce mémoire est, justement, de décrire le plus adéquatement possible ce phénomène, ce qui n'est pas du tout évident à première vue. [...]

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La station de mesure Molit entre dans la gamme de produits MAREL. Cette gamme est constituée d’outils développés pour l’observation en continu de paramètres hydrologiques. La bouée Molit a été déployée en baie de Vilaine du 2 mars 2011 au 22 septembre 2011. Cette station est équipée : - d’une sonde multipramètre MP6 qui mesure les paramètres : température, salinité, oxygène dissous, turbidité et fluorescence. Les mesures sont réalisées à 2 niveaux (surface et fond) avec une fréquence de une mesure horaire. - de deux analyseurs de nutriments (Chemini) mesurant les concentrations en nitrate et silicate avec une fréquence de une mesure toutes les 12 heures. Les données acquises par la bouée MOLIT sont transmises par liaison GSM numérique à la station de gestion Marel vilaine où elles sont validées. Un outil de contrôle qualité (OCQ) a été développé pour valider les données : elles peuvent être qualifiées selon 3 états : bon, douteux ou faux. Ils existent différents stades de validation : - stade T0.5 : pré-qualification automatique sur la base de seuils fixés avec 3 états : bon, douteux et faux. - Stade T1 : contrôle visuel et modification manuelle de l’état de qualité - Stade T2 : données corrigées (après étalonnage). Ce document synthétise les informations permettant de qualifier les données au stade T1 : - contrôles in-situ de la sonde multiparamètre réalisés par le laboratoire LER/MPL - historique des opérations de maintenance pendant la période de déploiement.