998 resultados para Partial observations
Resumo:
In this paper, we devise a separation principle for the finite horizon quadratic optimal control problem of continuous-time Markovian jump linear systems driven by a Wiener process and with partial observations. We assume that the output variable and the jump parameters are available to the controller. It is desired to design a dynamic Markovian jump controller such that the closed loop system minimizes the quadratic functional cost of the system over a finite horizon period of time. As in the case with no jumps, we show that an optimal controller can be obtained from two coupled Riccati differential equations, one associated to the optimal control problem when the state variable is available, and the other one associated to the optimal filtering problem. This is a separation principle for the finite horizon quadratic optimal control problem for continuous-time Markovian jump linear systems. For the case in which the matrices are all time-invariant we analyze the asymptotic behavior of the solution of the derived interconnected Riccati differential equations to the solution of the associated set of coupled algebraic Riccati equations as well as the mean square stabilizing property of this limiting solution. When there is only one mode of operation our results coincide with the traditional ones for the LQG control of continuous-time linear systems.
Resumo:
Plan recognition is the problem of inferring the goals and plans of an agent from partial observations of her behavior. Recently, it has been shown that the problem can be formulated and solved usingplanners, reducing plan recognition to plan generation.In this work, we extend this model-basedapproach to plan recognition to the POMDP setting, where actions are stochastic and states are partially observable. The task is to infer a probability distribution over the possible goals of an agent whose behavior results from a POMDP model. The POMDP model is shared between agent and observer except for the true goal of the agent that is hidden to the observer. The observations are action sequences O that may contain gaps as some or even most of the actions done by the agent may not be observed. We show that the posterior goal distribution P(GjO) can be computed from the value function VG(b) over beliefs b generated by the POMDPplanner for each possible goal G. Some extensionsof the basic framework are discussed, and a numberof experiments are reported.
Resumo:
The Extended Kalman Filter (EKF) and four dimensional assimilation variational method (4D-VAR) are both advanced data assimilation methods. The EKF is impractical in large scale problems and 4D-VAR needs much effort in building the adjoint model. In this work we have formulated a data assimilation method that will tackle the above difficulties. The method will be later called the Variational Ensemble Kalman Filter (VEnKF). The method has been tested with the Lorenz95 model. Data has been simulated from the solution of the Lorenz95 equation with normally distributed noise. Two experiments have been conducted, first with full observations and the other one with partial observations. In each experiment we assimilate data with three-hour and six-hour time windows. Different ensemble sizes have been tested to examine the method. There is no strong difference between the results shown by the two time windows in either experiment. Experiment I gave similar results for all ensemble sizes tested while in experiment II, higher ensembles produce better results. In experiment I, a small ensemble size was enough to produce nice results while in experiment II the size had to be larger. Computational speed is not as good as we would want. The use of the Limited memory BFGS method instead of the current BFGS method might improve this. The method has proven succesful. Even if, it is unable to match the quality of analyses of EKF, it attains significant skill in forecasts ensuing from the analysis it has produced. It has two advantages over EKF; VEnKF does not require an adjoint model and it can be easily parallelized.
Resumo:
Le nombre important de véhicules sur le réseau routier peut entraîner des problèmes d'encombrement et de sécurité. Les usagers des réseaux routiers qui nous intéressent sont les camionneurs qui transportent des marchandises, pouvant rouler avec des véhicules non conformes ou emprunter des routes interdites pour gagner du temps. Le transport de matières dangereuses est réglementé et certains lieux, surtout les ponts et les tunnels, leur sont interdits d'accès. Pour aider à faire appliquer les lois en vigueur, il existe un système de contrôles routiers composé de structures fixes et de patrouilles mobiles. Le déploiement stratégique de ces ressources de contrôle mise sur la connaissance du comportement des camionneurs que nous allons étudier à travers l'analyse de leurs choix de routes. Un problème de choix de routes peut se modéliser en utilisant la théorie des choix discrets, elle-même fondée sur la théorie de l'utilité aléatoire. Traiter ce type de problème avec cette théorie est complexe. Les modèles que nous utiliserons sont tels, que nous serons amenés à faire face à des problèmes de corrélation, puisque plusieurs routes partagent probablement des arcs. De plus, puisque nous travaillons sur le réseau routier du Québec, le choix de routes peut se faire parmi un ensemble de routes dont le nombre est potentiellement infini si on considère celles ayant des boucles. Enfin, l'étude des choix faits par un humain n'est pas triviale. Avec l'aide du modèle de choix de routes retenu, nous pourrons calculer une expression de la probabilité qu'une route soit prise par le camionneur. Nous avons abordé cette étude du comportement en commençant par un travail de description des données collectées. Le questionnaire utilisé par les contrôleurs permet de collecter des données concernant les camionneurs, leurs véhicules et le lieu du contrôle. La description des données observées est une étape essentielle, car elle permet de présenter clairement à un analyste potentiel ce qui est accessible pour étudier les comportements des camionneurs. Les données observées lors d'un contrôle constitueront ce que nous appellerons une observation. Avec les attributs du réseau, il sera possible de modéliser le réseau routier du Québec. Une sélection de certains attributs permettra de spécifier la fonction d'utilité et par conséquent la fonction permettant de calculer les probabilités de choix de routes par un camionneur. Il devient alors possible d'étudier un comportement en se basant sur des observations. Celles provenant du terrain ne nous donnent pas suffisamment d'information actuellement et même en spécifiant bien un modèle, l'estimation des paramètres n'est pas possible. Cette dernière est basée sur la méthode du maximum de vraisemblance. Nous avons l'outil, mais il nous manque la matière première que sont les observations, pour continuer l'étude. L'idée est de poursuivre avec des observations de synthèse. Nous ferons des estimations avec des observations complètes puis, pour se rapprocher des conditions réelles, nous continuerons avec des observations partielles. Ceci constitue d'ailleurs un défi majeur. Nous proposons pour ces dernières, de nous servir des résultats des travaux de (Bierlaire et Frejinger, 2008) en les combinant avec ceux de (Fosgerau, Frejinger et Karlström, 2013). Bien qu'elles soient de nature synthétiques, les observations que nous utilisons nous mèneront à des résultats tels, que nous serons en mesure de fournir une proposition concrète qui pourrait aider à optimiser les décisions des responsables des contrôles routiers. En effet, nous avons réussi à estimer, sur le réseau réel du Québec, avec un seuil de signification de 0,05 les valeurs des paramètres d'un modèle de choix de routes discrets, même lorsque les observations sont partielles. Ces résultats donneront lieu à des recommandations sur les changements à faire dans le questionnaire permettant de collecter des données.
Resumo:
Variational data assimilation in continuous time is revisited. The central techniques applied in this paper are in part adopted from the theory of optimal nonlinear control. Alternatively, the investigated approach can be considered as a continuous time generalization of what is known as weakly constrained four-dimensional variational assimilation (4D-Var) in the geosciences. The technique allows to assimilate trajectories in the case of partial observations and in the presence of model error. Several mathematical aspects of the approach are studied. Computationally, it amounts to solving a two-point boundary value problem. For imperfect models, the trade-off between small dynamical error (i.e. the trajectory obeys the model dynamics) and small observational error (i.e. the trajectory closely follows the observations) is investigated. This trade-off turns out to be trivial if the model is perfect. However, even in this situation, allowing for minute deviations from the perfect model is shown to have positive effects, namely to regularize the problem. The presented formalism is dynamical in character. No statistical assumptions on dynamical or observational noise are imposed.
Resumo:
Type-written manuscript.
Resumo:
This case study represents four years of audiological observations, testing and aural habilitation of a female child with a partial agenesis of the corpus callosum (ACC). The ACC was diagnosed by MRI scans to eliminate neurological causes for developmental delay at six months of age. This child was also born with a cleft palate and was diagnosed with Robinow Syndrome at 3 years and 3 months of age. The audiological results showed an improvement in hearing thresholds over the four-year period. The child’s opthamologist also reported an improvement in visual skills over time. The most interesting aspect of the child’s hearing was the discrepancy between the monaural and the binaural results. That is, when assessed binaurally she often presented with a mild to moderate mixed loss and when assessed monaurally she showed a moderate to severe mixed loss for the right ear and a severe mixed loss for the left ear. This discrepancy between binaural and monaural results was evident for both aided and unaided tests. Parental reports of the child’s hearing were consistent with the binaural clinical results. This case indicates the need for audiologists to: (a) carefully monitor the hearing of children with ACC, (b) obtain monaural and binaural hearing and aided thresholds results, and (c) compare these children’s functional abilities to the objective test results obtained. This case does question whether hearing aids are appropriate for children with ACC. If hearing aids are deemed to be appropriate, then hearing aids with compression characteristics should be considered.
Resumo:
This case study presents four and a half years of audiological observations, testing and aural habilitation of a female child with a partial agenesis of the corpus callosum (ACC). The ACC was diagnosed by MRI scan performed at 6 months of age to eliminate neurological causes for the developmental delay. This child was also born with a cleft palate and was diagnosed with Robinow Syndrome at 3 years and 3 months of age. The audiological results showed an improvement in hearing thresholds over the 4-year period. The child’s ophthalmologist also reported an improvement in visual skills over time. The most interesting aspect of the child’s hearing was the discrepancy between the monaural and the binaural results. That is, when assessed binaurally she often presented with a mild to moderate mixed loss and, when assessed monaurally, she showed a moderate to severe mixed loss for the right ear and a severe mixed loss for the left ear. Over time, the discrepancy between the monaural and binaural results changed. When assessed binaurally, the loss decreased to normal low frequency hearing sloping to a mild high frequency loss. When assessed monaurally, the most recent results showed a mild loss for the right ear and a moderate loss for the left ear. This discrepancy between binaural and monaural results was evident for both aided and unaided tests. For the most recent thresholds, the binaural results were consistent with the right monaural thresholds for the first time over the four and a half years. Parental reports of the child’s hearing were consistent with the binaural clinical results. This case indicates the need for audiologists to (1) carefully monitor the hearing of children with ACC, (2) obtain monaural and binaural hearing and aided thresholds results, and (3) compare these children’s functional abilities with the objective test results obtained. This case does question whether hearing aids are appropriate for children with ACC. If hearing aids are deemed to be appropriate, then hearing aids with compression characteristics should be considered.
Resumo:
This report describes a preliminary characterization of proteolytic activity of proteins isolated from lysate of Giardia trophozoites of an axenic Brazilian strain. Fractions obtained by high-performance liquid chromatography (FPLC) were tested in SDS-polyacrylamide gel for the protein profiles, and the proteases activity was analyzed using gelatin impregnated SDS-PAGE. The proteases characterization was based on inhibition assays employing synthetic inhibitors for cysteine (E-64, IAA), serine (PMSF, TPCK, TLCK, and elastatinal), metalo (EDTA) and aspartic (pepstatin) proteases. Among thirty eluted fractions, polypeptide bands were observed in eight of them, however, proteolytic activity was detected in four ones (F23, F24, F25 and F26). Protein profiles of these fractions showed a banding pattern composed by few bands distributed in the migration region of 45 to < 18 kDa. The zymograms revealed proteolytic activity in all the four fractions assayed, mainly distributed in the migration region of 62 to 35 kDa. Among the profiles, the main pronounced zones of proteolysis were distinguished at 62, 55, 53, 50, 46 and 40 kDa. In inhibition assays, the protease activities were significantly inhibited by cysteine (E-64) and serine proteases (TPCK, TLCK and elastatinal) inhibitors. Gels incubated with other cysteine and serine protease inhibitors, IAA and PMSF, respectively, showed a decrease in the intensity of hydrolysis zones. Indeed, in the assays with the inhibitors EDTA for metalloproteases and pepstatin for aspartic proteases, none inhibition was detected against the substrate. These observations are relevants, especially if we consider that to define the real role of the proteases in host-parasite interaction, the purification of these enzymes for detailed studies may be warranted.
Resumo:
Dissertation submitted in partial fulfillment of the requirements for the Degree of Master of Science in Geospatial Technologies.
Resumo:
Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.
Resumo:
This study was initiated to investigate partial melting within the high-grade metamorphic rocks beneath the Little Cottonwood contact aureole (Utah, USA), in order to understand the melt generation, melt migration, and geometry of initial melt distribution on grain scale during crustal anatexis. The emplacement of the Little Cottonwood stock produced a contact aureole in the pelitic host rocks of the Big Cottonwood formation (BC). Metamorphic isogrades in pelitic rocks range form biotite to 2nd sillimanite grade as a function of distance from the contact. Migmatites are restricted to the highest grade and resulted form partial melting of the BC formation rocks. First melt was produced by a combined muscovite/biotite dehydration reaction in the sillimanite + k-feldspar stability field. Melt extraction from the pelites resulted in restites (magnetite + cordierite + alumosilicate ± biotite) surrounded by feldspar enriched quartzite zones. This texture is the result of gradual infiltration of partial melts into the quartzite. Larger, discrete melt accumulation occurred in extensional or transpressional domains such as boudin necks, veins, and ductile shear zones. Melt composition are Si02- rich, crystallized as pegmatites, and apparently were very mobile. They were able to infiltrate the quartzite pervaisivly. These melts are similar in composition to first melts produced in the hydrothermal partial melt experiments at 2kbar between 700 - 800°C on fine grained high metamorphic rocks (andalusite-cordierited-biotite-zone) of the BC formation. The experimental melts are water rich and in disequilibrium with the melting rock. Initial melt composition is heterogeneous for short run duration, reflective a lack of chemical equilibrium between individual melt pools. Rock core scale heterogeneity decreased with time indicating partial homogenization of melt compositions. A simultaneous shift of melt composition to higher silica content with time was observed. The silica content of the melt increased due to local melt/mineral reactions. Melt textures indicate that reactive melt transport is most efficient along grain boundaries rimmed by dissimilar grains. Melt heterogeneity resulted in chemical potential gradients which are major driving forces for initial melt migration and govern melt distribution during initial melting. An additional subject of the thesis is the crystal size distributions of opaque minerals in a fine-grained, high-grade meta-pelite of the Big Cottonwood which were obtained from 3D X-ray tomography (uCT) and 2D thin section analysis. µCT delivers accurate size distributions within a restricted range (~ a factor of 20 in size in a single 3D image), while the absolute number of crystals is difficult to obtain from these sparsely distributed, small crystals on the basis of 2D images. Crystal size distributions obtained from both methods are otherwise similar. - Ce travail de recherche a été entrepris dans le but d'étudier les processus de fusion partielle dans les roches fortement métamorphiques de l'auréole de contact de Little Cottonwood (Utah, USA) et ceci afin de comprendre la génération de liquide de fusion, la migration de ces liquides et la géométrie de la distribution initiale des liquides de fusion à l'échelle du grain durant l'anatexie de la croûte. L'emplacement du petit massif intrusif de Little Cottonwood a produit une auréole de contact dans les roches pélitiques encaissantes appartenant à la Foimation du Big Cottonwood (BC). Les isogrades métamorphiques dans les roches pélitiques varient de l'isograde de la biotite à la deuxième isograde de la sillimanite en fonction de la distance par rapport au massif intrusif. Les migmatites sont restreintes aux zones montrant le plus haut degré métamorphique et résultent de la fusion partielle des roches de la Formation de BC. Le premier liquide de fusion a été produit par la réaction de déshydratation combinée de la muscovite et de la biotite dans le champ de stabilité du feldspath potassique Pt de la sillimanite. L'extraction du liquide de fusion des pélites forme des restites (magnétites + cordiérite + aluminosilicate ± biotite) entourées par des zones de quartzites enrichies en feldspath. Cette texture est le résultat de l'infiltration graduelle du liquide de fusion partielle dans les quartzites. Des accumulations distinctes et plus larges de liquide de fusion ont lieu dans des domaines d'extension ou de transpression tels que les boudins, les veines, et les zones de cisaillement ductile. La composition des liquides de fusion est similaire à celle des liquides pegmatoïdes, et ces liquides sont apparemment très mobiles et capables d'infiltrer les quartzites. Ces liquides de fusion ont la même composition que les premiers liquides produits dans les expériences hydrotheunales de fusion partielle à 2kbar et entre 700-800° C sur les roches finement grenues et hautement métamorphiques (andalousite-cordiérite-biotite zone) de la Formation de BC. Les liquides de fusion obtenus expérimentalement sont riches en eau et sont en déséquilibre avec la roche en fusion. La composition initiale des liquides de fusion est hétérogène pour les expériences de courte durée et reflète l'absence d'équilibre chimique entre les différentes zones d'accumulation des liquides de fusion. L'hétérogénéité à l'échelle du noyau s'estompe avec le temps et témoigne de l'homogénéisation de la composition des liquides de fusion. Par ailleurs, on observe parallèlement un décalage de la composition des liquides vers des compositions plus riches en silice au cours du temps. Le contenu en silice des liquides de fusion évolue vers un liquide pegmatitique en raison des réactions liquides/minéraux. Les textures des liquides de fusion indiquent que le transport des liquides est plus efficace le long des bordures de grains bordés par des grains différents. Aucun changement apparent du volume total n'est visible. L'hétérogénéité des liquides s'accompagne d'un gradient de potentiel chimique qui sert de moteur principal à la migration des liquides et à la distribution des liquides durant la fusion. Un sujet complémentaire de ce travail de thèse réside dans l'étude de la distribution de la taille des cristaux opaques dans les pélites finement grenues et fortement métamorphiques de la Formation de Big Cottonwood. Les distributions de taille ont été obtenues suite à l'analyse d'images 3D acquise par tomographie ainsi que par analyse de lames minces. La microtomographie par rayon X fournit une distribution de taille précise sur une marge restreinte (- un facteur de taille 20 dans une seule image 3D), alors que le nombre absolu de cristaux est difficile à obtenir sur la base d'image 2D en raison de la petite taille et de la faible abondance de ces cristaux. Les distributions de taille obtenues par les deux méthodes sont sinon similaire. Abstact: Chemical differentiation of the primitive Earth was due to melting and separation of melts. Today, melt generation and emplacement is still the dominant process for the growth of the crust. Most granite formation is due to partial melting of the lower crust, followed by transport of magma through the crust to the shallow crust where it is emplaced. Partial melting and melt segregation are essential steps before such a granitic magma can ascent through the crust. The chemistry and physics of partial melting and segregation is complex. Hence detailed studies, in which field observations yield critical information that can be compared to experimental observations, are crucial to the understanding of these fundamental processes that lead and are leading to the chemical stratification of the Earth. The research presented in this thesis is a combined field and experimental study of partial melting of high-grade meta-pelitic rocks of the Little Cottonwood contact aureole (Utah, USA). Contact metamorphic rocks are ideal for textural studies of melt generation, since the relatively short times of the metamorphic event prevents much of the recrystallization which plagues textural studies of lower crustal rocks. The purpose of the study is to characterize melt generation, identify melting reactions, and to constrain melt formation, segregation and migration mechanisms. In parallel an experimental study was undertaken to investigate melt in the high grade meta pelitic rocks, to confirm melt composition, and to compare textures of the partial molten rock cores in the absence of deformation. Results show that a pegmatoidal melt is produced by partial melting of the pelitic rocks. This melt is highly mobile. It is capable of pervasive infiltration of the adjacent quartzite. Infiltration results in rounded quartz grains bordered by a thin feldspar rim. Using computed micro X-ray tomography these melt networks can be imaged. The infiltrated melt leads to rheological weakening and to a decompaction of the solid quartzite. Such decompaction can explain the recent discovery of abundant xenocrysts in many magmas, since it favors the isolation of mineral grains. Pervasive infiltration is apparently strongly influenced by melt viscosity and melt-crystal wetting behavior, both of which depend on the water content of melt and the temperature. In all experiments the first melt is produced on grain boundaries, dominantly by the local minerals. Grain scale heterogeneity of a melting rock leads thus to chemical concentration gradients in the melt, which are the driving force for initial melt migration. Pervasive melt films along grain boundaries leading to an interconnected network are immediately established. The initial chemical heterogeneities in the melt diminish with time. Résumé large public: La différenciation chimique de la Terre primitive est la conséquence de la fusion des roches et de la séparation des liquides qui en résultent. Aujourd'hui, la production de liquide magmatique est toujours le mécanisme dominant pour la croissance de la croûte terrestre. Ainsi la formation de la plupart des granites est un processus qui implique la production de magma par fusion partielle de la croûte inférieure, la migration de ces magmas à travers la croûte et finalement son emplacement dans les niveaux superficielle de la croûte terrestre. Au cours de cette évolution, les processus de fusion partielle et de ségrégation sont des étapes indispensables à l'ascension des granites à travers la croûte. Les conditions physico-chimiques nécessaires à la fusion partielle et à l'extraction de ces liquides sont complexes. C'est pourquoi des études détaillées des processus de fusion partielle sont cruciales pour la compréhension de ces mécanismes fondamentaux responsables de la stratification chimique de la Terre. Parmi ces études, les observations de terrain apportent notamment des informations déterminantes qui peuvent être comparées aux données expérimentales. Le travail de recherche présenté dans ce mémoire de thèse associe études de terrain et données expérimentales sur la fusion partielle des roches pélitiques de haut degré métamorphiques provenant de l'auréole de contact de Little Cottonwood (Utah, USA). Les roches du métamorphisme de contact sont idéales pour l'étude de la folination de liquide de fusion. En effet, la durée relativement courte de ce type d'événement métamorphique prévient en grande partie la recristallisation qui perturbe les études de texture des roches dans la croûte inférieure. Le but de cette étude est de caractériser la génération des liquides de fusion, d'identifier les réactions responsables de la fusion de ces roches et de contraindre la formation de ces liquides et leur mécanisme de ségrégation et de migration. Parallèlement, des travaux expérimentaux ont été entrepris pour reproduire la fusion partielle de ces roches en laboratoire. Cette étude a été effectuée dans le but de confirmer la composition chimique des liquides, et de comparer les textures obtenues en l'absence de déformation. Les résultats montrent qu'un liquide de fusion pegmatoïde est produit par fusion partielle des roches pélitiques. La grande mobilité de ce liquide permet une infiltration pénétrative dans les quarzites. Ces infiltrations se manifestent par des grains de quartz arrondis entourés par une fine bordure de feldspath. L'utilisation de la tomography à rayons X a permis d'obtenir des images de ce réseau de liquide de fusion. L'infiltration de liquide de fusion entraîne un affaiblissement de la rhéologie de la roche ainsi qu'une décompaction des quartzites massifs. Une telle décompaction peut expliquer la découverte récente d'abondants xénocristaux dans beaucoup de magmas, puisque elle favorise l'isolation des minéraux. L'infiltration pénétrative est apparemment fortement influencée par la viscosité du fluide de fusion et le comportement de la tension superficielle entre les cristaux et le liquide, les deux étant dépendant du contenu en eau dans le liquide de fusion et de la température. Dans toutes les expériences, le premier liquide est produit sur les bordures de grains, principalement par les minéraux locaux. L'hétérogénéité à l'échelle des grains d'une roche en fusion conduit donc à un gradient de concentration chimique dans le liquide, qui sert de moteur à l'initiation de la migration du liquide. Des fines couches de liquide de fusion le long de bordures de grains formant un réseau enchevêtré s'établit immédiatement. Les hétérogénéités chimiques initiales dans le liquide s'estompent avec le temps.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
Expression of the SS18/SYT-SSX fusion protein is believed to underlie the pathogenesis of synovial sarcoma (SS). Recent evidence suggests that deregulation of the Wnt pathway may play an important role in SS but the mechanisms whereby SS18-SSX might affect Wnt signaling remain to be elucidated. Here, we show that SS18/SSX tightly regulates the elevated expression of the key Wnt target AXIN2 in primary SS. SS18-SSX is shown to interact with TCF/LEF, TLE and HDAC but not β-catenin in vivo and to induce Wnt target gene expression by forming a complex containing promoter-bound TCF/LEF and HDAC but lacking β-catenin. Our observations provide a tumor-specific mechanistic basis for Wnt target gene induction in SS that can occur in the absence of Wnt ligand stimulation.
Resumo:
The cubiu (Solanum sessiliflorum) fruit, originating in the Amazon basin, is commonly used in that region for food, medicine, and cosmetics. In an experimental culture of cubiu, in order to evaluate its adaptation to conditions in the Northern region of the state of Rio de Janeiro, it was observed plants with mosaic symptoms. A cubiu plant was collected and analyzed to identify the etiological agent. After mechanical passage through a local lesion host, a host range test was performed. The virus induced chlorotic local lesions in Chenopodium quinoa, necrotic local lesions in Gomphrena globosa, mosaic in S. sessiliflorum, leaf and stem necrosis in tomato (Lycopersicon esculentum) 'Rutgers', mosaic and leaf distortion in Datura stramonium and Physalis floridana, and necrotic local lesions followed by systemic necrosis and plant death in four Nicotiana species. Electron microscopic observations of ultra thin sections from infected cubiu leaves showed the presence of spheroidal, membrane-bound particles typical of tospovirus species. Analysis of the nucleocapsid protein from concentrated virus particles indicated the presence of a 28 kDa protein. RT-PCR was performed after total RNA extraction from infected IPA-6 tomato leaves. A fragment of approximately 0,8 kbp corresponding to the N gene was amplified, cloned and sequenced. The N protein from the cubiu isolate was 95% homologous to the Groundnut ringspot virus (GRSV) protein, and no more than 85% homologous to those from Zucchini lethal chlorosis virus (ZLCV) and Chrysanthemun stem necrosis virus (CSNV), Tomato spotted wilt virus (TSWV), and Tomato chlorotic spot virus (TCSV). This is the first report of the occurrence of GRSV (or any other plant virus) in cubiu.