999 resultados para Stochastic identification
Resumo:
To efficiently replicate within mammalian cells, viruses have to manoeuvre through complex host mechanisms, hijacking a network of host proteins to achieve successful propagation. To prevent this invasion, cells have evolved over time to efficiently block the incursing pathogen by direct or indirect targeting. Human immunodeficiency virus (HIV) is a retrovirus of major global public health issue. In the last decade, extensive focus on innate immune proteins has been given, and particularly restriction factors, proteins inhibiting HIV replication by affecting various stages of the viral cycle. Because of the importance of developing new HIV therapies that are associated with reduced side effects and resistances, there is an urge to understand the antiviral response against HIV. Using common features of known restriction factors as a signature to identify new anti-HIV factors, candidates were identified. Particularly multiple members of the apolipoproteins L (APOL) family were found. Cotransfection experiments confirmed very potent inhibitory effects on HIV-1 expression. Further characterization of APOL6, the best candidate, was carried out. APOL6 was not able to inhibit HIV specifically but rather inhibited any gene-encoded DNA that was cotransfected and therefore APOL6 does not classify as a bona fide restriction factor. In addition, we were able to map the activity of APOL6 to the MAD domain and mainly to residue 174. We also found that other members of the family identified in the screen, APOL1 and 3, could have similar mechanism of action as APOL6. Finally, although the complete mechanism of action of APOL6 has yet to be elucidated, it might be blocked during transfections, potentially improving transfection of primary cells. -- Pour se répliquer efficacement dans les cellules de mammifères, les virus doivent manoeuvrer à travers des mécanismes cellulaires complexes et détourner un réseau de protéines de l'hôte. Pour empêcher cette invasion, les gènes de l'hôte ont évolué dans le temps pour cibler efficacement, directement ou indirectement, l'agent pathogène. Le virus de l'immunodéficience humaine (VIH) est un rétrovirus de problème majeur de santé publique mondiale, mais le faible risque de transmission du virus pourrait être expliqué par la présence d'un système antiviral de l'hôte qui, en cas d'échec, conduit à une infection productive. Durant la dernière décennie, il y a eu un intérêt spécial porté sur les protéines immunitaires innées appelé facteurs de restriction présentant des effets inhibiteurs puissants sur la réplication du VIH en affectant différentes étapes du cycle viral. En raison de l'importance de la recherche de nouvelles thérapies anti-VIH associées à des effets secondaires et des résistances réduites comparé aux traitements actuels, il existe un besoin de comprendre la réponse antivirale innée contre le VIH. Basé sur des caractéristiques communes des facteurs de restriction connus, nous avons proposé d'identifier de nouveaux facteurs anti-VIH. Nous avons trouvé une famille de protéines, les apolipoprotéines L (APOL) montrant les effets inhibiteurs très puissants contre l'expression du VIH-1 dans des expériences de co-transfection. Nous avons décidé d'approfondir le rôle de ces protéines dans l'immunité innée et de se concentrer sur le meilleur candidat APOL6. Nous avons en outre établi qu'APOL6 n'a pas d'activité anti-virale spécifique et donc pas classé comme un facteur de bonne foi de restriction. Par ailleurs, APOL6 est capable d'inhiber fortement l'expression de tout Plasmide cotransfecté. En outre, nous avons été en mesure de cartographier l'activité d'APOL6 au domaine MAD et principalement au résidu 174. Nous avons également constaté que d'autres membres de la famille identifiés dans l'étude, APOL1 et 3, pourraient avoir le même mécanisme d'action qu'APOL6. Enfin, bien que le mécanisme d'action complet d'APOL6 reste à être élucidé, il pourrait être d'une importance biotechnologique car il pourrait potentiellement faciliter la transfection de cellules primaires après l'inhibition d'APOL6.
Resumo:
ABSTRACT The traditional method of net present value (NPV) to analyze the economic profitability of an investment (based on a deterministic approach) does not adequately represent the implicit risk associated with different but correlated input variables. Using a stochastic simulation approach for evaluating the profitability of blueberry (Vaccinium corymbosum L.) production in Chile, the objective of this study is to illustrate the complexity of including risk in economic feasibility analysis when the project is subject to several but correlated risks. The results of the simulation analysis suggest that the non-inclusion of the intratemporal correlation between input variables underestimate the risk associated with investment decisions. The methodological contribution of this study illustrates the complexity of the interrelationships between uncertain variables and their impact on the convenience of carrying out this type of business in Chile. The steps for the analysis of economic viability were: First, adjusted probability distributions for stochastic input variables (SIV) were simulated and validated. Second, the random values of SIV were used to calculate random values of variables such as production, revenues, costs, depreciation, taxes and net cash flows. Third, the complete stochastic model was simulated with 10,000 iterations using random values for SIV. This result gave information to estimate the probability distributions of the stochastic output variables (SOV) such as the net present value, internal rate of return, value at risk, average cost of production, contribution margin and return on capital. Fourth, the complete stochastic model simulation results were used to analyze alternative scenarios and provide the results to decision makers in the form of probabilities, probability distributions, and for the SOV probabilistic forecasts. The main conclusion shown that this project is a profitable alternative investment in fruit trees in Chile.
Resumo:
Les membres de la Génération Sandwich (GS) jouent un rôle pivot dans la société : tout en ayant un emploi, ils s'occupent de leurs enfants ou petits-enfants et offrent de l'aide à leurs parents ou beaux-parents (P/BP) fragilisés par leur vieillissement. Les charges de travail coexistantes générées par ces activités représentent pour leur santé un risque potentiel qui pourrait augmenter. Les connaissances sur la GS et sa santé perçue sont cependant insuffisantes pour que les infirmières de santé au travail développent des interventions préventives basées sur des preuves. La majorité des recherches existantes ont considéré la coexistence des charges comme a priori pathogénique. La plupart des études n'ont examiné l'association que d'une ou de deux de ces trois activités avec la santé. Très peu ont utilisé un cadre théorique infirmier. La présente thèse visait à développer les connaissances sur les membres de la GS et leur santé perçue. Aussi, nous avons adopté une des stratégies existantes pour développer des théories en science infirmière - donc pour développer des connaissances infirmières pour intervenir - décrites par Meleis (2012) : la stratégie « de la Théorie à la Recherche à la Théorie ». Premièrement, un cadre de référence infirmier salutogénique a été construit. Il s'est basé sur le modèle de soins Neuman Systems Model, des concepts issus de la théorie Déséquilibre entre Effort et Récompense de Siegrist et d'une recension intégrative des écrits. Il relie les charges de la GS avec la santé perçue et suggère l'existence de facteurs protégeant la santé. Deuxièmement, un dispositif de recherche descriptif corrélationnel exploratoire a été mis en place pour confronter les deux propositions relationnelles du cadre théorique au monde empirique. Des données ont été récoltées au moyen d'un questionnaire électronique rempli par 826 employés d'une administration publique (âge 45-65 ans). Après examen, 23.5% de l'échantillon appartenait à la GS. La probabilité d'appartenir à la GS augmentait avec l'avancement en âge des P/BP, la co-résidence et la présence d'un enfant dans le ménage ; cependant le sexe n'influençait pas cette probabilité. Les analyses n'ont révélé aucune relation entre la charge totale et la santé physique ou mentale des femmes. Néanmoins, il y avait une relation négative entre cette charge et la santé physique des hommes et une relation négative proche du seuil de significativité, sans toutefois l'atteindre, entre cette charge et leur santé mentale. La nature de ces deux dernières relations était principalement le fait de la charge de travail domestique et familiale. Cinq facteurs identifiés théoriquement ont effectivement protégé la santé de la GS de leurs charges coexistantes : l'absence de sur-engagement dans l'activité professionnelle et une grande latitude décisionnelle dans l'aide aux P/BP ont protégé la santé mentale des femmes ; une grande latitude décisionnelle dans l'activité domestique et familiale a protégé la santé mentale des hommes ; l'absence de sur-engagement dans l'aide aux P/BP et des relations de bonne qualité dans l'activité professionnelle ont protégé la santé physique des hommes. S'appuyant sur ces facteur protecteurs de la santé, cette thèse a proposé des pistes afin de développer des interventions pour la prévention primaire en santé au travail qui soient soucieuses de faire évoluer favorablement les inégalités de genre (gender-transformative). Elles ne concernent pas seulement les membres de la GS et les P/BP, mais aussi les employeurs. Troisièmement, comme les deux propositions relationnelles ont plutôt bien supporté la confrontation avec le monde empirique, cette thèse offre des suggestions pour poursuivre le développement de son cadre théorique et tendre vers la création d'une théorie de moyenne portée en science infirmière.
Resumo:
L'absence d'une définition claire de la dangerosité et de la violence en psychiatrie, ainsi que le constat d'échec général des outils de prédiction ne doivent pas interrompre le développement du management des risques dans l'institution. Nous proposons l' utilisation d' une échelle d'observation des comportements agressifs qui s'inspire largement du modèle de l'OAS (Overt Agression Scale ) développée par Yudofsky et ses collaborateurs. Il s'agit d'améliorer la qualité de l'observation infirmière et, ce faisant, d'utiliser l'OAS comme un médium pluridisciplinaire d'une part, et comme outil de communication avec le patient concerné, d'autre part. Entre banalisation et stigmatisation, nous restons attentifs au besoin de sécurité du personnel soignant et aux risques d'exclusion des patients "dérangeants".
Resumo:
Inherited retinal dystrophies present extensive phenotypic and genetic heterogeneity, posing a challenge for patients' molecular and clinical diagnoses. In this study, we wanted to clinically characterize and investigate the molecular etiology of an atypical form of autosomal recessive retinal dystrophy in two consanguineous Spanish families. Affected members of the respective families exhibited an array of clinical features including reduced visual acuity, photophobia, defective color vision, reduced or absent ERG responses, macular atrophy and pigmentary deposits in the peripheral retina. Genetic investigation included autozygosity mapping coupled with exome sequencing in the first family, whereas autozygome-guided candidate gene screening was performed by means of Sanger DNA sequencing in the second family. Our approach revealed nucleotide changes in CDHR1; a homozygous missense variant (c.1720C > G, p.P574A) and a homozygous single base transition (c.1485 + 2T > C) affecting the canonical 5' splice site of intron 13, respectively. Both changes co-segregated with the disease and were absent among cohorts of unrelated control individuals. To date, only five mutations in CDHR1 have been identified, all resulting in premature stop codons leading to mRNA nonsense mediated decay. Our work reports two previously unidentified homozygous mutations in CDHR1 further expanding the mutational spectrum of this gene.
Resumo:
Low-copy-number molecules are involved in many functions in cells. The intrinsic fluctuations of these numbers can enable stochastic switching between multiple steady states, inducing phenotypic variability. Herein we present a theoretical and computational study based on Master Equations and Fokker-Planck and Langevin descriptions of stochastic switching for a genetic circuit of autoactivation. We show that in this circuit the intrinsic fluctuations arising from low-copy numbers, which are inherently state-dependent, drive asymmetric switching. These theoretical results are consistent with experimental data that have been reported for the bistable system of the gallactose signaling network in yeast. Our study unravels that intrinsic fluctuations, while not required to describe bistability, are fundamental to understand stochastic switching and the dynamical relative stability of multiple states.
Resumo:
In this paper we consider a stochastic process that may experience random reset events which suddenly bring the system to the starting value and analyze the relevant statistical magnitudes. We focus our attention on monotonic continuous-time random walks with a constant drift: The process increases between the reset events, either by the effect of the random jumps, or by the action of the deterministic drift. As a result of all these combined factors interesting properties emerge, like the existence (for any drift strength) of a stationary transition probability density function, or the faculty of the model to reproduce power-law-like behavior. General formulas for two extreme statistics, the survival probability, and the mean exit time, are also derived. To corroborate in an independent way the results of the paper, Monte Carlo methods were used. These numerical estimations are in full agreement with the analytical predictions.
Resumo:
During our study of the glyoxylate cycle in soybean (Glycine max. L. var. Maple arrow), two mitochondrial and three cytosolic aconitase molecular species (EC 4.2.1.3) were detected, designated as M1, M2, C1, C2 and C3 isoforms, respectively, according to their intracellular locations and electrophoretic mobilities. Using the glyoxylate cycle marker enzymes isocitrate lyase (ICL, EC 4.1.3.1) and malate synthase (MS, EC 4.1.3.2), the activity of this pathway providing the essential link between P-oxidation and gluconeogenesis was confirmed during germination (cotyledons) and senescence (leaves). It was then established that, in both cases, the activity of the CI aconitase isoform developed concomitantly with the transcription and translation levels of the icl and ms genes. This strongly suggests that C1 aconitase is constitutive of the glyoxylate cycle. In addition, the same isoform was found to be active during pathogenic attack as well (hypocotyls). It might be assumed that in such a case the glyoxylate cycle is reinitiated as a part of a carbon reallocation system feeding on the diseased tissue cellular components.
Resumo:
Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.
Resumo:
In the wild, animals have developed survival strategies relying on their senses. The individual ability to identify threatening situations is crucial and leads to increase in the overall fitness of the species. Rodents, for example have developed in their nasal cavities specialized olfactory neurons implicated in the detection of volatile cues encoding for impending danger such as predator scents or alarm pheromones. In particular, the neurons of the Grueneberg ganglion (GG), an olfactory subsystem, are implicated in the detection of danger cues sharing a similar chemical signature, a heterocyclic sulfur- or nitrogen-containing motif. Here we used a "from the wild to the lab" approach to identify new molecules that are involuntarily emitted by predators and that initiate fear-related responses in the recipient animal, the putative prey. We collected urines from carnivores as sources of predator scents and first verified their impact on the blood pressure of the mice. With this approach, the urine of the mountain lion emerged as the most potent source of chemical stress. We then identified in this biological fluid, new volatile cues with characteristic GG-related fingerprints, in particular the methylated pyridine structures, 2,4-lutidine and its analogs. We finally verified their encoded danger quality and demonstrated their ability to mimic the effects of the predator urine on GG neurons, on mice blood pressure and in behavioral experiments. In summary, we were able to identify here, with the use of an integrative approach, new relevant molecules, the pyridine analogs, implicated in interspecies danger communication.