30 resultados para Door-to-door
Resumo:
BACKGROUND AND PURPOSE: We aimed to assess the interaction between intravenous thrombolysis (IVT) and arterial occlusion on acute cervicocerebral computed tomographic angiography on the outcome of patients with acute ischemic stroke. METHODS: Patients from the Acute Stroke Registry and Analysis of Lausanne (ASTRAL) registry with onset-to-door-time ≤4 hours, acute cervicocerebral computed tomographic angiography, a premorbid modified Rankin Scale ≤2, and a National Institute of Health Stroke Scale (NIHSS) >4 were selected. Patients with significant intracranial arterial obstruction (≥50%-99%) and undergoing acute endovascular treatment were excluded. An interaction analysis of IVT and initial arterial occlusion for favorable 3 months outcome (modified Rankin Scale <3) were performed with adjustment for potential confounders. RESULTS: Among 654 included patients, 382 (58%) showed arterial occlusion, of whom 263 (69%) received IVT. Two hundred seventy-two showed no/minimal obstruction of whom 139 (51%) received IVT. In the adjusted interaction analysis, there was a trend in favor of the arterial occlusion group (odds ratio [OR]=3.97; 95% confidence interval [CI], 0.83-18.97; P=0.08). IVT (versus no IVT) was associated with better outcome in patients with occlusion (adjusted OR for favorable outcome, 3.01; 95% CI, 1.10-8.28) but not in patients with no/minimal obstruction (OR, 0.76; 95% CI, 0.21-2.74). Conversely, patients with occlusion had a similar rate of favorable outcome as no/minimal obstruction when thrombolysed (OR, 0.5; 95% CI, 0.17-1.47) but had a less favorable outcome without thrombolysis (OR, 0.13; 95% CI, 0.04-0.44). CONCLUSIONS: In this retrospective analysis of consecutive patients with acute ischemic stroke, there was a trend for more favorable outcomes with IVT in the setting of initial arterial occlusion than in the setting of no/minimal obstruction. Before confirmation in randomized controlled studies, this information should not influence thrombolysis decisions, however.
Resumo:
Progress in genomics with, in particular, high throughput next generation sequencing is revolutionizing oncology. The impact of these techniques is seen on the one hand the identification of germline mutations that predispose to a given type of cancer, allowing for a personalized care of patients or healthy carriers and, on the other hand, the characterization of all acquired somatic mutation of the tumor cell, opening the door to personalized treatment targeting the driver oncogenes. In both cases, next generation sequencing techniques allow a global approach whereby the integrality of the genome mutations is analyzed and correlated with the clinical data. The benefits on the quality of care delivered to our patients are extremely impressive.
Resumo:
Introduction.- Pain and beliefs have an influence on the patient's course in rehabilitation and their relationships are complex. The aim of this study was to understand the relationships between pain at admission and the evolution of beliefs during rehabilitation as well as the relationships between pain and beliefs one year after rehabilitation.Patients and methods.- Six hundred and thirty-one consecutive patients admitted in rehabilitation after musculoskeletal trauma, were included and assessed at admission, at discharge and one year after discharge. Pain was measured by VAS (Visual Analogical Scale) and beliefs by judgement on Lickert scales. Four kinds of beliefs were evaluated: fear of a severe origin of pain, fear of movement, fear of pain and feeling of distress (loss of control). The association between pain and beliefs was assessed by logistic regressions, adjusted for gender, age, native language, education and bio-psycho-social complexity.Results.- At discharge, 44% of patients felt less distressed by pain, 34% are reinsured with regard to their fear of a severe origin of pain, 38% have less fear of pain and 33% have less fear of movement. The higher the pain at admission, the higher the probability that the distress diminished, this being true up to a threshold (70 mm/100) beyond which there was a plateau. At one year, the higher the pain, the more dysfunctional the fears.Discussion.- The relationships between pain and beliefs are complex and may change all along rehabilitation. During hospitalization, one could hope that the patient would be reinsured and would gain self-control again, if pain does not exceed a certain threshold. After one year, high pain increases the risk of dysfunctional beliefs. For clinical practice, these data suggest to think in terms of the more accessible "entrance door", act against pain and/or against beliefs, adpated to each patient.
Resumo:
While the incidence of sleep disorders is continuously increasing in western societies, there is a clear demand for technologies to asses sleep-related parameters in ambulatory scenarios. The present study introduces a novel concept of accurate sensor to measure RR intervals via the analysis of photo-plethysmographic signals recorded at the wrist. In a cohort of 26 subjects undergoing full night polysomnography, the wrist device provided RR interval estimates in agreement with RR intervals as measured from standard electrocardiographic time series. The study showed an overall agreement between both approaches of 0.05 ± 18 ms. The novel wrist sensor opens the door towards a new generation of comfortable and easy-to-use sleep monitors.
Resumo:
Abstract - Cannabis: what are the risks ? Cannabinoids from cannabis have a dual use and display often opposite pharmacological properties depending on the circumstances of use and the administered dose. Cannabinoids constitute mainly a recreative or addictive substance, but also a therapeutic drug. They can be either neurotoxic or neuroprotector, carcinogenic or an anti-cancer drug, hyperemetic or antiemetic, pro-inflammatory or anti-inflammatory... Improvement in in-door cultivation techniques and selection of high yield strains have resulted in a steadily increase of THC content. Cannabis is the most frequently prohibited drug used in Switzerland and Western countries. About half of teenagers have already experimented cannabis consumption. About 10% of cannabis users smoke it daily and can be considered as cannabis-dependant. About one third of these cannabis smokers are chronically intoxicated. THC, the main psychoactive drug interacts with the endocannnabinoid system which is made of cellular receptors, endogenous ligands and a complex intra-cellular biosynthetic, degradation and intra-cellular messengers machinery. The endocannabinoid system plays a major role in the fine tuning of the nervous system. It is thought to be important in memory, motor learning, and synaptic plasticity. At psychoactive dose, THC impairs psychomotor and neurocognitive performances. Learning and memory abilities are diminished. The risk to be responsible of a traffic car accident is slightly increased after administration of cannabis alone and strongly increased after combined use of alcohol and cannabis. With the exception of young children, cannabis intake does not lead to potentially fatal intoxication. However, cannabis exposure can act as trigger for cardiovascular accidents in rare vulnerable people. Young or vulnerable people are more at risk to develop a psychosis at adulthood and/or to become cannabis-dependant. Epidemiological studies have shown that the risk to develop a schizophrenia at adulthood is increased for cannabis smokers, especially for those who are early consumers. Likewise for the risk of depression and suicide attempt. Respiratory disease can be worsen after cannabis smoking. Pregnant and breast-feeding mothers should not take cannabis because THC gets into placenta and concentrates in breast milk. The most sensitive time-period to adverse side-effects of cannabis starts from foetus and extends to adolescence. The reason could be that the endocannabinoid system, the main target of THC, plays a major role in the setup of neuronal networks in the immature brain. The concomitant use of other psychoactive drugs such as alcohol, benzodiazepines or cocaine should be avoided because of possible mutual interactions. Furthermore, it has been demonstrated that a cross-sensitisation exists between most addictive drugs at the level of the brain reward system. Chronic use of cannabis leads to tolerance and withdrawals symptoms in case of cannabis intake interruption. Apart from the aforementioned unwanted side effects, cannabis displays useful and original medicinal properties which are currently under scientific evaluation. At the moment the benefit/risk ratio is not yet well assessed. Several minor phytocannabinoids or synthetic cannabinoids devoid of psychoactive properties could find their way in the modern pharmacopoeia (e.g. ajulemic acid). For therapeutic purposes, special cannabis varieties with unique cannabinoids composition (e.g. a high cannabidiol content) are preferred over those which are currently used for recreative smoking. The administration mode also differs in such a way that inhalation of carcinogenic pyrolytic compounds resulting from cannabis smoking is avoided. This can be achieved by inhaling cannabis vapors at low temperature with a vaporizer device. Résumé Les cannabinoïdes contenus dans la plante de cannabis ont un double usage et possèdent des propriétés opposées suivant les circonstances et les doses employées. Les cannabinoïdes, essentiellement drogue récréative ou d'abus pourraient, pour certains d'entre eux, devenir des médicaments. Selon les conditions d'utilisation, ils peuvent être neurotoxiques ou neuroprotecteurs, carcinogènes ou anticancéreux, hyper-émétiques ou antiémétiques, pro-inflammatoires ou anti-inflammatoires... Les techniques de culture sous serre indoor ainsi que la sélection de variétés de cannabis à fort potentiel de production ont conduit à un accroissement notable des taux de THC. Le cannabis est la drogue illégale la plus fréquemment consommée en Suisse et ailleurs dans le monde occidental. Environ la moitié des jeunes ont déjà expérimenté le cannabis. Environ 10 % des consommateurs le fument quotidiennement et en sont devenus dépendants. Un tiers de ces usagers peut être considéré comme chroniquement intoxiqué. Le THC, la principale substance psychoactive du cannabis, interagit avec le "système endocannabinoïde". Ce système est composé de récepteurs cellulaires, de ligands endogènes et d'un dispositif complexe de synthèse, de dégradation, de régulation et de messagers intra-cellulaires. Le système endocannabinoïde joue un rôle clé dans le réglage fin du système nerveux. Les endocannabinoïdes régulent la mémorisation, l'apprentissage moteur et la plasticité des liaisons nerveuses. À dose psychoactive, le THC réduit les performances psychomotrices et neurocognitives. Les facultés d'apprentissage et de mémorisation sont diminuées. Le risque d'être responsable d'un accident de circulation est augmenté après prise de cannabis, et ceci d'autant plus que de l'alcool aura été consommé parallèlement. À l'exception des jeunes enfants, la consommation de cannabis n'entraîne pas de risque potentiel d'intoxication mortelle. Toutefois, le cannabis pourrait agir comme facteur déclenchant d'accident cardiovasculaire chez de rares individus prédisposés. Les individus jeunes, et/ou vulnérables ont un risque significativement plus élevé de développer une psychose à l'âge adulte ou de devenir dépendant au cannabis. Des études épidémiologiques ont montré que le risque de développer une schizophrénie à l'âge adulte était augmenté pour les consommateurs de cannabis et ceci d'autant plus que l'âge de début de consommation était précoce. Il en va de même pour le risque de dépression. Les troubles respiratoires pourraient être exacerbés par la prise de cannabis. Les femmes enceintes et celles qui allaitent ne devraient pas consommer de cannabis car le THC traverse la barrière hémato-placentaire, en outre, il se concentre dans le lait maternel. La période de la vie la plus sensible aux effets néfastes du cannabis correspond à celle allant du foetus à l'adolescent. Le système endocannabinoïde sur lequel agit le THC serait en effet un acteur majeur orchestrant le développement des réseaux neuronaux dans le cerveau immature. La prise concomitante d'autres psychotropes comme l'alcool, les benzodiazépines ou la cocaïne conduit à des renforcements mutuels de leurs effets délétères. De plus, il a été montré l'existence d'une sensibilité croisée pour la majorité des psychotropes qui agissent sur le système de la récompense, le cannabis y compris, ce qui augmente ainsi le risque de pharmacodépendance. La prise régulière de doses élevées de cannabis entraîne l'apparition d'une tolérance et de symptômes de sevrage discrets à l'arrêt de la consommation. À part les effets négatifs mentionnés auparavant, le cannabis possède des propriétés médicales originales qui sont l'objet d'études attentives. Plusieurs cannabinoïdes mineurs naturels ou synthétiques, comme l'acide ajulémique, pourraient trouver un jour une place dans la pharmacopée. En usage thérapeutique, des variétés particulières de cannabis sont préférées, par exemple celles riches en cannabidiol non psychoactif. Le mode d'administration diffère de celui utilisé en mode récréatif. Par exemple, la vaporisation des cannabinoïdes à basse température est préférée à l'inhalation du "joint".
Resumo:
Collective behaviour enhances environmental sensing and decision-making in groups of animals. Experimental and theoretical investigations of schooling fish, flocking birds and human crowds have demonstrated that simple interactions between individuals can explain emergent group dynamics. These findings indicate the existence of neural circuits that support distributed behaviours, but the molecular and cellular identities of relevant sensory pathways are unknown. Here we show that Drosophila melanogaster exhibits collective responses to an aversive odour: individual flies weakly avoid the stimulus, but groups show enhanced escape reactions. Using high-resolution behavioural tracking, computational simulations, genetic perturbations, neural silencing and optogenetic activation we demonstrate that this collective odour avoidance arises from cascades of appendage touch interactions between pairs of flies. Inter-fly touch sensing and collective behaviour require the activity of distal leg mechanosensory sensilla neurons and the mechanosensory channel NOMPC. Remarkably, through these inter-fly encounters, wild-type flies can elicit avoidance behaviour in mutant animals that cannot sense the odour--a basic form of communication. Our data highlight the unexpected importance of social context in the sensory responses of a solitary species and open the door to a neural-circuit-level understanding of collective behaviour in animal groups.
Resumo:
Recognition by the T-cell receptor (TCR) of immunogenic peptides (p) presented by class I major histocompatibility complexes (MHC) is the key event in the immune response against virus infected cells or tumor cells. The major determinant of T cell activation is the affinity of the TCR for the peptide-MHC complex, though kinetic parameters are also important. A study of the 2C TCR/SIYR/H-2Kb system using a binding free energy decomposition (BFED) based on the MM-GBSA approach had been performed to assess the performance of the approach on this system. The results showed that the TCR-p-MHC BFED including entropic terms provides a detailed and reliable description of the energetics of the interaction (Zoete and Michielin, 2007). Based on these results, we have developed a new approach to design sequence modifications for a TCR recognizing the human leukocyte antigen (HLA)-A2 restricted tumor epitope NY-ESO-1. NY-ESO-1 is a cancer testis antigen expressed not only in melanoma, but also on several other types of cancers. It has been observed at high frequencies in melanoma patients with unusually positive clinical outcome and, therefore, represents an interesting target for adoptive transfer with modified TCR. Sequence modifications of TCR potentially increasing the affinity for this epitope have been proposed and tested in vitro. T cells expressing some of the proposed TCR mutants showed better T cell functionality, with improved killing of peptide-loaded T2 cells and better proliferative capacity compared to the wild type TCR expressing cells. These results open the door of rational TCR design for adoptive transfer cancer therapy.
Resumo:
Resolving the paradox of sex, with its twofold cost to genic transmission, remains one of the major unresolved questions in evolutionary biology. Counting this genetic cost has now gone genomic. In this issue of Molecular Ecology, Kraaijeveld et al. (2012) describe the first genome-scale comparative study of related sexual and asexual animal lineages, to test the hypothesis that asexuals bear heavier loads of deleterious transposable elements. A much higher density of such parasites might be expected, due to the inability of asexual lineages to purge transposons via mechanisms exclusive to sexual reproduction. They find that the answer is yes--and no--depending upon the family of transposons considered. Like many such advances in testing theory, more questions are raised by this study than answered, but a door has been opened to molecular evolutionary analyses of how responses to selection from intragenomic parasites might mediate the costs of sex.
Resumo:
Résumé large public La protéomique clinique est une discipline qui vise l'étude des protéines dans un but diagnostique ou thérapeutique. Nous avons utilisé cette approche pour étudier les lymphocytes T «tueurs » ou cytotoxiques qui font partie des globules blancs du système sanguin et agissent dans la lutte contre les infections et les tumeurs. Ces cellules sont impliquées dans l'immunothérapie cellulaire qui se fonde sur la capacité naturelle des ces lymphocytes à repérer les cellules tumorales et à les détruire. L'introduction du gène de la télomérase dans les lymphocytes T résulte en une prolongation de leur longévité, ce qui en ferait des candidats intéressants pour l'immunothérapie cellulaire. Il subsiste cependant des doutes quant aux conséquences de l'utilisation de ces lymphocytes «immortalisés ». Pour répondre à cette question, nous avons comparé le profile protéique de lymphocytes T cytotoxiques «jeunes » et vieux » avec celui des lymphocytes «immortalisés ». Nous avons trouvé que ces derniers présentent une double face et partagent à la fois les caractéristiques de la jeunesse et de la vieillesse. Dans une seconde étude de protéomique clinique, nous nous sommes penchés sur les lymphocytes B «immortalisés » cette fois-ci non pas avec la télomérase, mais avec le virus d'Epstein-Barr. Ces derniers sont utilisés comme modèle dans l'étude de la leucodystrophie, une maladie génétique rare qui affecte le cerveau. Notre but est d'identifier des marqueurs biologiques potentiels qui pourraient aider le diagnostic et le traitement de cette maladie neurodégénérative. Nous avons pour ce faire comparé les profiles protéiques des lymphocytes B «immortalisés » provenant d'individus sains et malades. Malheureusement, notre analyse n'a pas révélé de différences notoires entre ces deux classes de lymphocytes. Ceci nous permet toutefois de conclure que la maladie n'affecte pas la synthèse des protéines de manière prépondérante dans ces cellules sanguines. En résumé, le travail présenté dans cette thèse montre à la fois le potentiel et les limites de l'analyse des protéines lymphocytaires, dans différentes situations biologiques. Résumé La protéomique clinique ouvre la porte vers de multiples horizons relatifs au traitement de diverses maladies. Ce domaine particulier alliant la protéomique à la médecine, implique l'intervention de la biologie moléculaire et cellulaire. Dans notre étude, nous nous sommes d'abord intéressés aux lymphocytes T CD8+ cytotoxiques dans le contexte de l'immunothérapie adoptive. Le fondement de cette thérapie repose sur la capacité naturelle de ces lymphocytes à reconnaître les cellules tumorales et à les détruire chez les patients atteints de cancer. L'introduction du gène de la transcriptase réverse de la télomérase (hTERT) dans les lymphocytes T humains permet de rallonger leur durée de vie, sans toutefois induire d'altérations liées à la transformation. Cependant, des incertitudes subsistent quant à la ressemblance physiologique et biochimique entre ces cellules surexprirnant la télomérase et les cellules normales. Afin de répondre à cette question, nous avons comparé l'expression des protéines de lymphocytes humains T CD8+ «jeunes » et «vieux »avec celle de lymphocytes transduits avec hTERT. Nous avons trouvé que les lymphocytes T surexprimant la télomérase ont un profile protéique intermédiaire, avec certaines expressions protéiques similaires aux jeunes cellules T et d'autres se rapprochant des cellules vieilles. Dans la seconde partie de notre étude, nous nous sommes intéressés aux lymphocytes B transformés avec le virus d'Epstein-Barr provenant de patients atteints d'une maladie génétique rare du cerveau, la leucodystrophie. Dans cette maladie, des mutations dans le facteur de transcription eIF2B, impliqué dans la synthèse protéique, ont été trouvées. Afin d'analyser les conséquences de ces mutations et de trouver des biomarqueurs spécifiques à cette maladie, nous avons effectué une analyse protéomique des lymphoblastes provenant de malades et d'individus sains. Nous avons trouvé que les mutations dans le complexe ubiquitaire eIF2B n'affectent pas de manière significative l'expression des protéines des lymphoblastes mutés. En conclusion, notre travail illustre le potentiel et les limitations des technologies protéomiques utilisées pour disséquer l'implication des protéines dans différentes situations biologiques. Summary Clinical proteomics opens the door to multiple applications related to the treatment of diseases. This particular field is at the crossroad of proteomics and medicine and involves tools from cellular and molecular biology. We focused first our investigations on cytotoxic T cells in the context of adoptive immunotherapy, which is an interesting and evolving field. The basis of this therapy relies on the natural capacity of cytotoxic CD8+ T lymphocytes in recognizing tumor cells and destroying them in cancer patients. As their number is reduced, the idea would be to use transformed T lymphocytes with extended life span. Overexpression of telomerase into human T lymphocytes results in the extension of their replicative life span, but it still remains unclear whether these cells are physiologically indistinguishable from normal ones. To address this question, we compared the proteome of young and aged CD8+ T lymphocytes with that of T cells transduced with hTERT and found that the latter cells displayed an intermediate protein pattern, sharing similar protein expression with young, but also with aged T cells. We were then interested in studying Epstein-Barr virus transformed B lymphocytes in the context of a rare human brain genetic disorder called leukodystrophy. In this disease, mutations in the ubiquitous factor eIF2B involved in protein synthesis and its regulation have been reported. In order to analyze the functional consequences of the mutations and to find out specific biomarkers of eIF2B-related disorders, proteomic and peptidomic studies were carried out on lymphoblasts from eIF2Bmutated patients versus healthy patients. Following two-dimensional gel electrophoresis and mass fingerprints, mutations in the eIF2B complex did not appear to significantly affect the proteome of the mutated lymphoblasts extracts. To conclude, our work emphasizes the potentials and the limitations of the proteomic technologies used to analyze the role of lymphocyte proteins in different biological situations.
Resumo:
The skin is privileged because several skin-derived stem cells (epithelial stem cells from epidermis and its appendages, mesenchymal stem cells from dermis and subcutis, melanocyte stem cells) can be efficiently captured for therapeutic use. Main indications remain the permanent coverage of extensive third degree burns and healing of chronic cutaneous wounds, but recent advances in gene therapy technology open the door to the treatment of disabling inherited skin diseases with genetically corrected keratinocyte stem cells. Therapeutic skin stem cells that were initially cultured in research or hospital laboratories must be produced according strict regulatory guidelines, which ensure patients and medical teams that the medicinal cell products are safe, of constant quality and manufactured according to state-of-the art technology. Nonetheless, it does not warrant clinical efficacy and permanent engraftment of autologous stem cells remains variable. There are many challenges ahead to improve efficacy among which to keep telomere-dependent senescence and telomere-independent senescence (clonal conversion) to a minimum in cell culture and to understand the cellular and molecular mechanisms implicated in engraftment. Finally, medicinal stem cells are expansive to produce and reimbursement of costs by health insurances is a major concern in many countries.
Resumo:
A case of sustained combustion of a human body that occurred in 2006 in Geneva, Switzerland, is presented. The body of a man was discovered at home and found to have been almost completely incinerated between the knees and the mid-chest, with less damage to the head, arms, lower legs and feet. His dog was also found dead just behind the house door. The external source of ignition was most likely a cigarette or a cigar. The chair in which the man had been sitting was largely consumed while other objects in the room exhibited only a brown oily or greasy coating and were virtually undamaged. Toxicological analyses carried out on the blood from the lower legs showed low levels of desalkylflurazepam. Alcohol concentration was 1.10 per thousand, carboxyhaemoglobin levels were 12% and cyanide concentration was 0.05 mg/L. Toxicological analyses carried out on the dog's blood showed carboxyhaemoglobin levels at 65%.
Resumo:
Molecular docking softwares are one of the important tools of modern drug development pipelines. The promising achievements of the last 10 years emphasize the need for further improvement, as reflected by several recent publications (Leach et al., J Med Chem 2006, 49, 5851; Warren et al., J Med Chem 2006, 49, 5912). Our initial approach, EADock, showed a good performance in reproducing the experimental binding modes for a set of 37 different ligand-protein complexes (Grosdidier et al., Proteins 2007, 67, 1010). This article presents recent improvements regarding the scoring and sampling aspects over the initial implementation, as well as a new seeding procedure based on the detection of cavities, opening the door to blind docking with EADock. These enhancements were validated on 260 complexes taken from the high quality Ligand Protein Database [LPDB, (Roche et al., J Med Chem 2001, 44, 3592)]. Two issues were identified: first, the quality of the initial structures cannot be assumed and a manual inspection and/or a search in the literature are likely to be required to achieve the best performance. Second the description of interactions involving metal ions still has to be improved. Nonetheless, a remarkable success rate of 65% was achieved for a large scale blind docking assay, when considering only the top ranked binding mode and a success threshold of 2 A RMSD to the crystal structure. When looking at the five-top ranked binding modes, the success rate increases up to 76%. In a standard local docking assay, success rates of 75 and 83% were obtained, considering only the top ranked binding mode, or the five top binding modes, respectively.
Resumo:
Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.
Resumo:
Mapping perturbed molecular circuits that underlie complex diseases remains a great challenge. We developed a comprehensive resource of 394 cell type- and tissue-specific gene regulatory networks for human, each specifying the genome-wide connectivity among transcription factors, enhancers, promoters and genes. Integration with 37 genome-wide association studies (GWASs) showed that disease-associated genetic variants-including variants that do not reach genome-wide significance-often perturb regulatory modules that are highly specific to disease-relevant cell types or tissues. Our resource opens the door to systematic analysis of regulatory programs across hundreds of human cell types and tissues (http://regulatorycircuits.org).
Resumo:
Introduction La stratégie de reperfusion coronarienne par voie percutanée (PCI: percutaneous coronary intervention) est considérée comme étant la méthode de choix dans la prise en charge urgente des STEMI(H). Actuellement, les deux accès artériels principaux pour les PCI sont l'artère fémorale et l'artère radiale. La voie radiale est préconisée en première intention par les guidelines actuelles car elle serait associée à moins de complications hémorragiques. Objectif L'objectif de cette étude était de comparer la voie d'abord radiale à la voie fémorale, chez les patients admis pour un STEMI, en analysant le succès de la procédure de revascularisation, l'évolution clinique et les complications. Méthode Il s'agit d'une étude observationnelle, comprenant 268 patients admis au CHUV entre le 1er janvier et le 31 décembre 2013, avec le diagnostic de STEMI. Le choix de la voie d'accès artériel (fémorale ou radiale) était laissé au cardiologue interventionnel, sans randomisation. Les patients ont été séparés en 2 groupes, selon la voie d'abord vasculaire choisie au début de la procédure de revascularisation (intention to treat). Les endpoints primaires étaient les saignements majeurs (≥ 3 selon BARC)(A), et le door to balloon time(B). Les endpoints secondaires étaient les MACE(C), les saignements mineurs(A), le taux succès des procédures(D), le temps de fluoroscopie, la quantité de produit de contraste, et le taux de crossover(E) Résultats 268 patients en STEMI ont été inclus dans cette étude, pour un geste de revascularisation en urgence. La moyenne d'âge était de 64.3 ans, avec 73.1% d'hommes. 3 cas de saignements majeurs(A) ont lieu avec la voie radiale (3.4%), et 10 avec la voie fémorale (5.6%), p=0.44. Le door to balloon time ne diffère pas de manière significative selon la voie d'accès employée : 42 min (34-57) pour le groupe radial, et 48 min (31-61) pour le groupe fémoral, p=0.09. Les taux de MACE étaient de 8.0% avec la voie radiale, et de 6.7% avec la voie fémorale, p=0.7. Le taux de crossover était de 4.5% avec la voie radiale, et 0.6% avec la voie fémorale, p=0.02. Le temps de fluoroscopie était de 7min 28sec (5min 9 sec - 12min 25) pour la voie fémorale, contre 12min 22sec (9min 30 sec - 16min 19sec) pour la voie radiale, p < 0.05. La quantité de produit de contraste nécessaire était de 120 ml (100-160) pour le groupe fémoral, et de 170 ml (140-210) pour le groupe radial, p < 0.05. Le taux de succès était comparable entres les 2 groupes : 97.7% pour le groupe radial et 96.0% pour le groupe fémoral, p=0.47. 5.7% des patients du groupe radial sont décédés, contre 5.7% du groupe fémoral, p=0.97. Conclusion Notre étude démontre que la prise en charge d'un STEMI par voie radiale est possible, puisqu'elle n'allonge pas le « door to balloon time », qu'elle n'augmente pas le taux de MACE ni les saignements majeurs, que soit au point de ponction ou non. Par contre la voie radiale augmente la quantité de produit de contraste nécessaire, et allonge le temps de fluoroscopie de manière non négligeable. De futures études permettront peut-être de mieux définir les groupes de patients qui pourraient bénéficier le plus d'une approche radiale.