87 resultados para solve
Resumo:
The multiscale finite volume (MsFV) method has been developed to efficiently solve large heterogeneous problems (elliptic or parabolic); it is usually employed for pressure equations and delivers conservative flux fields to be used in transport problems. The method essentially relies on the hypothesis that the (fine-scale) problem can be reasonably described by a set of local solutions coupled by a conservative global (coarse-scale) problem. In most cases, the boundary conditions assigned for the local problems are satisfactory and the approximate conservative fluxes provided by the method are accurate. In numerically challenging cases, however, a more accurate localization is required to obtain a good approximation of the fine-scale solution. In this paper we develop a procedure to iteratively improve the boundary conditions of the local problems. The algorithm relies on the data structure of the MsFV method and employs a Krylov-subspace projection method to obtain an unconditionally stable scheme and accelerate convergence. Two variants are considered: in the first, only the MsFV operator is used; in the second, the MsFV operator is combined in a two-step method with an operator derived from the problem solved to construct the conservative flux field. The resulting iterative MsFV algorithms allow arbitrary reduction of the solution error without compromising the construction of a conservative flux field, which is guaranteed at any iteration. Since it converges to the exact solution, the method can be regarded as a linear solver. In this context, the schemes proposed here can be viewed as preconditioned versions of the Generalized Minimal Residual method (GMRES), with a very peculiar characteristic that the residual on the coarse grid is zero at any iteration (thus conservative fluxes can be obtained).
Resumo:
RESUME Ce travail se propose de discuter des résultats comportementaux observés chez des rats obtenus dans trois paradigmes expérimentaux différents : le bassin de Morris (Morris Water Maze, Morris, 1984) ; la table à trous (Homing Board, Schenk, 1989) et le labyrinthe radial (Radial Arm Maze, Olton et Samuelson, 1976). Les deux premières tâches sont spatiales et permettent un apprentissage de place en environnements contrôlés, et la troisième est une tâche comportementale qui différencie deux habiletés particulières, celle d'élimination (basée sur la mémoire de travail) et celle de sélection (basée sur la mémoire de référence). La discussion des résultats porte sur les stratégies de navigation utilisées par les animaux pour résoudre les tâches et plus précisément sur les facteurs qui peuvent influencer le choix de ces stratégies. Le facteur environnemental (environnement contrôlé) et le facteur cognitif (vieillissement) représentent les variables étudiées ici. C'est ainsi que certaines hypothèses communément acceptées ont été malmenées par nos résultats. Or si l'espace est habituellement supposé homogène (toutes les positions spatiales présentent le même degré de difficulté lors d'un apprentissage en champ ouvert), ce travail établit qu'une position associée -sans contiguïté - à l'un des trois indices visuels situés dans la périphérie de l'environnement est plus difficile à apprendre qu'une position située entre deux des trois indices. Deuxièmement, alors qu'il est admis que l'apprentissage d'une place dans un environnement riche requiert le même type d'information. dans la bassin de Morris (tâche nagée) que sur la table à trous (tâche marchée), nous avons montré que la discrimination spatiale en bassin ne peut être assurée par les trois indices visuels périphériques et nécessite la présence d'au moins un élément supplémentaire. Enfin, l'étude du vieillissement a souvent montré que l'âge réduit les capacités cognitives nécessaires à la navigation spatiale, conduisant à un déficit général des performances d'un animal sénescent, alors que dans notre travail, nous avons trouvé les animaux âgés plus performants et plus efficaces que les adultes dans une tâche particulière de collecte de nourriture. Ces expériences s'inscrivent dans une étude générale qui met à l'épreuve le modèle théorique proposé pax Schenk et Jacobs (2003), selon lequel l'encodage de la carte cognitive (Tolman, 1948 ; O'Keefe et Nadel, 1978) se ferait dans l'hippocampe par l'activité de deux modules complémentaires :d'une part le CA3 - Gyrus Denté pour le traitement d'une trame spatiale basée sur des éléments directionnels et Jou distribués en gradient (bearing map) et d'autre part le CAl - Subiculum pour le traitement des représentations locales basées sur les positions relatives des éléments fixes de l'environnement (sketch map). SUMMARY This work proposes to talk about behavioural results observed in three different experimental paradigms with rats: the Morris Water Maze (Morris, 1984); the Homing Board (Schenk, 1989) and the Radial Arm Maze (Olton and Samuelson, 1976). The two first tasks are spatial ones and allow place learning in controlled environments. The third one is a behavioural task which contrasts two particular skills, the elimination (based on working memory) and the selection one (based on reference memory). The topic of the discussion will be the navigation strategies used by animals to solve the different tasks, and more precisely the factors which can bias this strategies' choice. The environmental (controlled) and the cognitive (aging) factors are the variables studied here. Thus, some hypotheses usually accepted were manhandled by our results. Indeed, if space is habitually homogenously considered (all spatial positions present the same degree of difficulty in an open field learning), this work establishes that an associated position -without being adjacent - to one of the three visual cues localised in the environmental periphery is more difficult to learn than a configurationnel position (situated between two of the three cues). Secondly, if it is received that place learning in a rich environment requires the same information in the Morris water maze (swimming task) that on the Homing board (walking task), we showed that spatial discrimination in the water maze can't be provided by the three peripheral cue cards and needs the presence of a supplementary cue. At last, aging studies often showed that oldness decreases cognitive skills in spatial navigation, leading to a general deficit in performances. But, in our work, we found that senescent rats were more efficient than adult ones in a special food collecting task. These experiments come within the scope of a general study which tests the theoretical model proposed by Jacobs and Schenk (2003), according to which the cognitive map's encoding (Tolman, 1948, O'Keefe and Nadel, 1978) should take place in the hippocampus by two complementary modules, first the DG-CA3 should encode directional and/or gradients references (the bearing map), and secondly the Subiculum-CAl should process locale elements (the sketch map).
Resumo:
In a current perspective of individualized medicine, biomarkers appear as a simple and readily available aid to assist clinicians in the identification and monitoring of diseases whose diagnosis is difficult. Basically, we know the limited performance of medical history and of clinical examination; therefore, the use of laboratory tests is often seen as the panacea to solve the clinical enigma. The purpose of this article is to analyze a few biomarkers commonly processed in the immunology laboratory (AAN, ANCA, anti-tTG, rheumatoid factor and anti-CCP) and to review the principle, the usefulness and the performance of these tests in specific clinical situations. We will see that, far from supplanting history and physical examination, these immunological biomarkers take their full value as a supplement to clinical information!
Resumo:
Depuis la Décennie du cerveau, proclamée en 1990 aux Etats-Unis et en 1993 en Suisse, les neurosciences semblent avoir lié solidement la psychiatrie à la médecine somatique et aux sciences de la vie, notamment à travers la neuroimagerie fonctionnelle (TEP, IRMf, EEG). Ces différentes techniques permettent d'enregistrer l'activité cérébrale humaine in vivo au cours de certaines tâches cognitives et de la corréler à des diagnostics, des symptômes ou des traits psychologiques. Elles promettent le développement d'une recherche enfin interdisciplinaire et translationnelle, qui vise l'application de la recherche fondamentale neuroscientifique à la clinique psychiatrique afin de résoudre la question des causes neurobiologiques des maladies mentales. Ce travail propose une autre histoire des techniques de neuroimagerie en psychiatrie, sur plus d'un siècle, en se basant sur des entretiens, des observations in situ et des sources historiques peu connues appartenant entre autres au passé de la psychiatrie académique suisse. Cette thèse montre de quelle manière la neuroimagerie fonctionnelle contribue à la formation de versions cliniques et expérimentales d'un sujet cérébral à l'intersection de la psychopathologie, de la psychopharmacologie et de la neuropsychologie cognitive.¦-¦Since the Decade of the brain, which was proclaimed in the USA in 1990 and in Switzerland in 1993, psychiatry appeared to get closer to somatic medicine and neurosciences, mainly thanks to functional neuroimaging (PET, fMRI, EEG). These techniques record in vivo human brain activity during cognitive tasks and correlate patterns of activity with psychiatric disorders, symptoms or psychological dimensions. They promise the development of interdisciplinary and translational research in biomedicine, resulting in the application of fundamental research to clinical psychiatry. The aim is to solve the etiology of mental disorders. This dissertation proposes another story of these techniques as used in psychiatry, starting more than a century ago. Relying on interviews, in situ observations and unexploited historical sources belonging mainly to swiss academic psychiatry past, this study shows how functional neuroimaging has contributed to versions of clinical and experimental cerebral subject at the crossroads between psychopathology, psychopharmacology, and cognitive neuropsychology.
Resumo:
ABSTRACTThe Online Mendelian Inheritance in Man database (OMIM) reports about 3000 Mendelian diseases of known causal gene and about 2000 that remain to be mapped. These cases are often difficult to solve because of the rareness of the disease, the structure of the family (too big or too small) or the heterogeneity of the phenotype. The goal of this thesis is to explore the current genetic tools, before the advent of ultra high throughput sequencing, and integrate them in the attempt to map the genes behind the four studied cases. In this framework we have studied a small family with a recessive disease, a modifier gene for the penetrance of a dominant mutation, a large extended family with a cardiac phenotype and clinical and/or allelic heterogeneity and we have molecularly analyzed a balanced chromosomal translocation.RESUMELa base de données des maladies à transmission mendélienne, Online Mendelian Inheritance in Man (OMIM), contient environ 3000 affections à caractère mendélien pour lesquelles le gène responsable est connu et environ 2000 qui restent à élucider.Les cas restant à résoudre sont souvent difficiles soit par le caractère intrinsèquement rare de ces maladies soit à cause de difficultés structurelles (famille trop petite ou trop étendue) ou hétérogénéité du phénotype ou génétique. Cette thèse s'inscrit avant l'arrivée des nouveaux outils de séquençage à haut débit. Son but est d'explorer les outils génétiques actuels, et de les intégrer pour trouver les gènes impliqués dans quatre cas représentant chacun une situation génétique différente : nous avons étudié une famille de quatre individus avec une transmission récessive, recherché un gène modificateur de la pénétrance de mutations dominantes, étudié une famille étendue présentant un phénotype cardiaque cliniquement et/ou allèliquement hétérogène et nous avons fait l'analyse moléculaire d'une translocation chromosomique balancée.
Resumo:
Objectives: To measure the positive predictive value (PPV) of the cost of drug therapy (threshold = 2000 Swiss francs [CHF], US$1440, <euro>1360) as a screening criterion for identifying patients who may benefit from medication review (MR). To describe identified drug-related problems (DRPs) and expense problems (EPs), and to estimate potential savings if all recommendations were accepted. Setting Five voluntary Swiss community pharmacies. Methods: Of 12,680 patients, 592 (4.7%) had drug therapy costs exceeding 2000 CHF over a six-month period from July 1 to December 31, 2002. This threshold limit was set to identify high-risk patients for DRPs and EPs. Three pharmacists consecutively conducted a medication review based on the pharmaceutical charts of 125 sampled patients who met the inclusion criterion. Main outcome measure: The PPV of a threshold of 2000 CHF for identifying patients who might benefit from a MR: true positives were patients with at least one DRP, while false positives were patients with no DRP. Results: The selection based on this criterion had a PPV of 86% for detecting patients with at least one DRP and 95% if EPs were also considered. There was a mean of 2.64 (SD = 2.20) DRPs per patient and a mean of 2.14 (SD = 1.39) EPs per patient. Of these patients, 90% were over 65 years old or were treated with at least five chronic medications, two common criteria for identifying patients at risk of DRPs. The main types of DRPs were drug-drug interactions, compliance problems and duplicate drugs. Mean daily drug cost per patient was CHF 14.87 (US$10.70, <euro>10.10). A potential savings of CHF 1.67 (US$1.20, <euro>1.14) per day (11%) was estimated if all recommendations to solve DRPs and EPs suggested herein were implemented. Conclusion: Further studies should investigate whether the potential benefit of medication reviews in preventing DRPs and containing costs in this patient group can be confirmed in a real practice environment. [Authors]
Resumo:
This chapter discusses how the industrial ecological systems can help in dealing with environmental issues in developing countries, and it presents three case studies from India that highlight some of the unique environmental issues of developing world. Industrial ecology explores the assumption that the industrial system can be seen as a certain kind of ecosystem. The scope of industrial ecology goes well beyond waste exchange to the optimization of resources flowing through the economic system. Among the various specific aspects of developing countries, which have to be born in mind, is the fact that the pattern of resource flows in developing countries, and hence, the resultant environmental threat could be very different than what it is in the industrialized west. Typically, the flow of materials through the large, organized manufacturing facilities in the developing countries could be very small in relation to the overall material flow as the small, informal ?industry? plays a key role and forms a very significant portion of the economic activity. The case studies of the Tirupur textile industries, and the leather industry in India, illustrate how redefining the problem from a perspective of resource conservation, and on the basis of resource flow data could point to totally new directions for strategy planning. The case study of the Damodar Valley region amplifies the importance of looking beyond formal industry to solve an environmental problem. It shows that even for globally critical programs, such as climate change program in developing countries, it is just not enough to estimate the emissions from the formal industrial sectors.
Resumo:
L'endocardite infectieuse (EI) est une maladie potentiellement mortelle qui doit être prévenue dans toute la mesure du possible. Au cours de ces dernières 50 années, les recommandations Américaines et Européennes pour la prophylaxie de PEI proposaient aux patients à risques de prendre un antibiotique, préventif avant de subir une intervention médico-chirurgicale susceptible d'induire une bactériémie transitoire. Cependant, des études épidémiologiques récentes ont montré que la plupart des EI survenaient en dehors de tous actes médico-chirurgicaux, et indépendamment de la prise ou non de prophylaxie antibiotique . L'EI pourrait donc survenir suite à la cumulation de bactériémies spontanées de faibles intensités, associées à des activités de la vie courante telle que le brossage dentaire pour le streptocoques, ou à partir de tissus colonisés ou de cathéters infectés pour les staphylocoques. En conséquence, les recommandations internationales pour la prophylaxie de PEI ont été revues et proposent une diminution drastique de l'utilisation d'antibiotiques. Cependant, le risque d'EI représenté par le cumul de bactériémies de faibles intensités n'a pas été démontré expérimentalement. Nous avons développé un nouveau modèle d'EI expérimentale induite par une inoculation en continu d'une faible quantité de bactéries, simulant le cumul de bactériémies de faibles intensités chez l'homme, et comparé l'infection de Streptococcus gordonii et de Staphylococcus aureus dans ce modèle avec celle du modèle d'IE induite par une bactériémie brève, mais de forte intensité. Nous avons démontré, après injection d'une quantité égale de bactéries, que le nombre de végétations infectées était similaire dans les deux types d'inoculations. Ces résultats expérimentaux ont confirmé l'hypothèse qu'une exposition cumulée à des bactériémies de faibles intensités, en dehors d'une procédure médico-chirurgicale, représentait un risque pour le développement d'une El, comme le suggéraient les études épidémiologiques. En plus, ces résultats ont validé les nouvelles recommandations pour la prophylaxie de l'El, limitant drastiquement l'utilisation d'antibiotiques. Cependant, ces nouvelles recommandations laissent une grande partie (> 90%) de cas potentiels d'EI sans alternatives de préventions, et des nouvelles stratégies prophylactiques doivent être investiguées. Le nouveau modèle d'EI expérimentale représente un modèle réaliste pour étudier des nouvelles mesures prophylactiques potentielles appliquées à des expositions cumulées de bactériémies de faible nombre. Dans un contexte de bactériémies spontanées répétitives, les antibiotiques ne peuvent pas résoudre le problème de la prévention de l'EI. Nous avons donc étudié la une alternative de prévention par l'utilisation d'agents antiplaquettaires. La logique derrière cette approche était basée sur le fait que les plaquettes sont des composants clés dans la formation des végétations cardiaques, et le fait que les bactéries capables d'interagir avec les plaquettes sont plus enclines à induire une El. Les agents antiplaquettaires utilisés ont été l'aspirine (inhibiteur du COX1), la ticlopidine (inhibiteur du P2Y12, le récepteur de l'ADP), et l'eptifibatide et Pabciximab, deux inhibiteurs du GPIIb/IIIa, le récepteur plaquettaire pour le fibrinogène. Les anticoagulants étaient le dabigatran etexilate, inhibant lathrombine et l'acenocumarol, un antagoniste de la vitamine K. L'aspirine, la ticlopidine ou l'eptifibatide seuls n'ont pas permis de prévenir l'infection valvulaire (> 75% animaux infectés). En revanche, la combinaison d'aspirine et de ticlopidine, aussi bien que l'abciximab, ont protégé 45% - 88% des animaux de l'EI par S. gordonii et par S. aureus. L'antithrombotique dabigatran etexilate à protégé 75% des rats contre l'EI par S. aureus, mais pas (< 30% de protection) par S. gordonii. L'acenocoumarol n'a pas eu d'effet sur aucun des deux organismes. En général, ces résultats suggèrent un possible rôle pour les antiplaquettaires et du dabigatran etexilate dans la prophylaxie de l'EI dans un contexte de bactériémies récurrentes de faibles intensités. Cependant, l'effet bénéfique des antiplaquettaires doit être soupesé avec le risque d'hémorragie inhérent à ces molécules, et le fait que les plaquettes jouent un important rôle dans les défenses de l'hôte contre les infections endovasculaires. En plus, le double effet bénéfique du dabigatran etexilate devrait être revu chez les patients porteurs de valves prothétiques, qui ont besoin d'une anticoagulation à vie, et chez lesquels l'EI à S. aureus est associée avec une mortalité de près de 50%. Comme l'approche avec des antiplaquettaires et des antithrombotiques pourrait avoir des limites, une autre stratégie prophylactique pourrait être la vaccination contre des adhésines de surfaces des pathogènes. Chez S. aureus, la protéine de liaison au fibrinogène, ou dumping factor A (ClfA), et la protéine de liaison à la fibronectine (FnbpA) sont des facteurs de virulence nécessaires à l'initiation et l'évolution de PEI. Elles représentent donc des cibles potentielles pour le développement de vaccins contre cette infection. Récemment, des nombreuses publications ont décrit que la bactérie Lactococcus lactis pouvait être utilisée comme vecteur pour la diffusion d'antigènes bactériens in vivo, et que cette approche pourrait être une stratégie de vaccination contre les infections bactériennes. Nous avons exploré l'effet de l'immunisation par des recombinant de L. lactis exprimant le ClfA, la FnbpA, ou le ClfA ensemble avec et une forme tronquée de la FnbpA (Fnbp, comprenant seulement le domaine de liaison à la fibronectine mais sans le domaine A de liaison au fibrinogène [L. lactis ClfA/Fnbp]), dans la prophylaxie de PIE expérimentale à S. aureus. L. lactis ClfA a été utilisés comme agent d'immunisation contre la souche S. aureus Newman (qui a particularité de n'exprimer que le ClfA, mais pas la FnbpA). L. lactis ClfA, L. lactis FnbpA, et L. lactis ClfA/Fnbp, ont été utilisé comme agents d'immunisation contre une souche isolée d'une IE, S. aureus P8 (exprimant ClfA et FnbpA). L'immunisation avec L. lactis ClfA a généré des anticorps anti-ClfA fonctionnels, capables de bloquer la liaison de S. aureus Newman au fibrinogène in vitro et protéger 13/19 (69%) animaux d'une El due à S. aureus Newman (P < 0.05 comparée aux contrôles). L'immunisation avec L. lactis ClfA, L. lactis FnbpA, ou L. lactis ClfA/Fnbp, a généré des anticorps contre chacun de ces antigènes. Cependant, ils n'ont pas permis de bloquer l'adhésion de S. aureus P8 au fibrinogène et à la fibronectine in vitro. De plus, l'immunisation avec L. lactis ClfA ou L. lactis FnbpA s'est avérée inefficace in vivo (< 10% d'animaux protégés d'une El) et l'immunisation avec L. lactis ClfA/Fnbp a fourni une protection limitée de l'EI (8/23 animaux protégés; P < 0.05 comparée aux contrôles) après inoculation avec S. aureus P8. Dans l'ensemble, ces résultats indiquent que L. lactis est un système efficace pour la présentation d'antigènes in vivo et potentiellement utile pour la prévention de PEI à S. aureus. Cependant, le répertoire de protéines de surface de S. aureus capable d'évoquer une panoplie d'anticorps efficace reste à déterminer.. En résumé, notre étude a démontré expérimentalement, pour la première fois, qu'une bactériémie répétée de faible intensité, simulant la bactériémie ayant lieu, par exemple, lors des activités de la vie quotidienne, est induire un taux d'EI expérimentale similaire à celle induite par une bactériémie de haute intensité suite à une intervention médicale. Dans ce contexte, où l'utilisation d'antibiotiques est pas raisonnable, nous avons aussi montré que d'autres mesures prophylactiques, comme l'utilisation d'agents antiplaquettaires ou antithrombotiques, ou la vaccination utilisant L. lactis comme vecteur d'antigènes bactériens, sont des alternatives prometteuses qui méritent d'être étudiées plus avant. Thesis Summary Infective endocarditis (IE) is a life-threatening disease that should be prevented whenever possible. Over the last 50 years, guidelines for IE prophylaxis proposed the use of antibiotics in patients undergoing dental or medico-surgical procedures that might induce high, but transient bacteremia. However, recent epidemiological studies indicate that IE occurs independently of medico-surgical procedures and the fact that patients had taken antibiotic prophylaxis or not, i.e., by cumulative exposure to random low-grade bacteremia, associated with daily activities (e.g. tooth brushing) in the case of oral streptococci, or with a colonized site or infected device in the case of staphylococci. Accordingly, the most recent American and European guidelines for IE prophylaxis were revisited and updated to drastically restrain antibiotic use. Nevertheless, the relative risk of IE represented by such cumulative low-grade bacteremia had never been demonstrated experimentally. We developed a new model of experimental IE due to continuous inoculation of low-grade bacteremia, mimicking repeated low-grade bacteremia in humans, and compared the infectivity of Streptococcus gordonii and Staphylococcus aureus in this model to that in the model producing brief, high-level bacteremia. We demonstrated that, after injection of identical bacterial numbers, the rate of infected vegetations was similar in both types of challenge. These experimental results support the hypothesis that cumulative exposure to low-grade bacteremia, outside the context of procedure-related bacteremia, represents a genuine risk of IE, as suggested by human epidemiological studies. In addition, they validate the newer guidelines for IE prophylaxis, which drastic limit the procedures in which antibiotic prophylaxis is indicated. Nevertheless, these refreshed guidelines leave the vast majority (> 90%) of potential IE cases without alternative propositions of prevention, and novel strategies must be considered to propose effective alternative and "global" measures to prevent IE initiation. The more realistic experimental model of IE induced by low-grade bacteremia provides an accurate experimental setting to study new preventive measures applying to cumulative exposure to low bacterial numbers. Since in a context of spontaneous low-grade bacteremia antibiotics are unlikely to solve the problem of IE prevention, we addressed the role of antiplatelet and anticoagulant agents for the prophylaxis of experimental IE induced by S. gordonii and S. aureus. The logic of this approach was based on the fact that platelets are key players in vegetation formation and vegetation enlargement, and on the fact that bacteria capable of interacting with platelets are more prone to induce IE. Antiplatelet agents included the COX1 inhibitor aspirin, the inhibitor of the ADP receptor P2Y12 ticlopidine, and two inhibitors of the platelet fibrinogen receptor GPIIb/IIIa, eptifibatide and abciximab. Anticoagulants included the thrombin inhibitor dabigatran etexilate and the vitamin K antagonist acenocoumarol. Aspirin, ticlopidine or eptifibatide alone failed to prevent aortic infection (> 75% infected animals). In contrast, the combination of aspirin with ticlopidine, as well as abciximab, protected 45% to 88% of animals against IE due to S. gordonii and S. aureus. The antithrombin dabigatran etexilate protected 75% of rats against IE due to S. aureus, but failed (< 30% protection) against S. gordonii. Acenocoumarol had no effect against any bacteria. Overall, these results suggest a possible role for antiplatelet agents and dabigatran etexilate in the prophylaxis of IE in humans in a context of recurrent low- grade bacteremia. However, the potential beneficial effect of antiplatelet agents should be balanced against the risk of bleeding and the fact that platelets play an important role in the host defenses against intravascular infections. In addition, the potential dual benefit of dabigatran etexilate might be revisited in patients with prosthetic valves, who require life-long anticoagulation and in whom S. aureus IE is associated with high mortality rate. Because the antiplatelet and anticoagulant approach might be limited in the context of S. aureus bacteremia, other prophylactic strategies for the prevention of S. aureus IE, like vaccination with anti-adhesion proteins was tested. The S. aureus surface proteins fibrinogen-binding protein clumping-factor A (ClfA) and the fibronectin-binding protein A (FnbpA) are critical virulence factors for the initiation and development of IE. Thus, they represent key targets for vaccine development against this disease. Recently, numerous reports have described that the harmless bacteria Lactococcus lactis can be used as a bacterial vector for the efficient delivery of antigens in vivo, and that this approach is a promising vaccination strategy against bacterial infections. We therefore explored the immunization capacity of non- living recombinant L. lactis ClfA, L. lactis FnbpA, or L. lactis expressing ClfA together with Fnbp (a truncated form of FnbpA with only the fibronectin-binding domain but lacking the fibrinogen-binding domain A [L. lactis ClfA/Fnbp]), to protect against S. aureus experimental IE. L. lactis ClfA was used as immunization agent against the laboratory strain S. aureus Newman (expressing ClfA, but lacking FnbpA). L. lactis ClfA, L. lactis FnbpA, as well as L. lactis ClfA/Fnbp, were used as immunization agents against the endocarditis isolate S. aureus P8 (expressing both ClfA and FnbpA). Immunization with L. lactis ClfA produced anti-ClfA functional antibodies, which were able to block the binding of S. aureus Newman to fibrinogen in vitro and protect 13/19 (69%) animals from IE due to S. aureus Newman (P < 0.05 compared to controls). Immunization with L. lactis ClfA, L. lactis FnbpA or L. lactis ClfA/Fnbp, produced antibodies against each antigen. However, they were not sufficient to block S. aureus P8 binding to fibrinogen and fibronectin in vitro. Moreover, immunization with L. lactis ClfA or L. lactis FnbpA was ineffective (< 10% protected animals) and immunization with L. lactis ClfA/Fnbp conferred limited protection from IE (8/23 protected animals; P < 0.05 compared to controls) after challenge with S. aureus P8. Together, these results indicate that L. lactis is an efficient delivering antigen system potentially useful for preventing S. aureus IE. They also demonstrate that expressing multiple antigens in L. lactis, yet to be elucidated, will be necessary to prevent IE due to clinical S. aureus strains fully equipped with virulence determinants. In summary, our study has demonstrated experimentally, for the first time, the hypothesis that low-grade bacteremia, mimicking bacteremia occurring outside of a clinical intervention, is equally prone to induce experimental IE as high-grade bacteremia following medico-surgical procedures. In this context, where the use of antibiotics for the prophylaxis of IE is limited, we showed that other prophylactic measures, like the use of antiplatelets, anticoagulants, or vaccination employing L. lactis as delivery vector of bacterial antigens, are reasonable alternatives that warrant to be further investigated.
Resumo:
Purpose: Although young males encounter sexually-related concerns, they are mostly absent from specialized services. Our objective is to assess whether the internet is used by boys to find answers to these types of problems and questions. Methods: In the context of a qualitative study assessing young males' barriers to access sexual and reproductive health facilities, we conducted two focus groups gathering 12 boys aged 17-20. Discussions were triggered through the presentation of four vignettes corresponding to questions posted by 17-20 year old boys and girls on an information website for adolescents (www.ciao.ch), concerning various sexual dysfunction situations. In order to avoid having to talk about their own experience, participants were asked what they would do in those cases. Results: In general, the internet was mentioned quite thoroughly as a means of searching for information through research engines and a place to address professionals for advice.Within the hierarchy of consultation possibilities, the internet was given the first place as a way to deal with these types of problems presenting many advantages: (1) the internet enables to maintain intimacy; (2) it is anonymous (use of a pseudo); (3) it avoids having to confront someone face-to-face with personal problems which can be embarrassing and challenging for one's pride; (4) it is free; and (5) it is accessible at all times. In other words, participants value the internet as a positive tool to avoid many barriers which prevent offline consultations to take place. Most participants consider the internet at least as a first step in trying to solve a problem; for instance, by better defining the seriousness of a problem and judging if it is worth consulting a doctor. However, despite the positive qualities of the internet, they do put forward the importance of having specialists answering questions, trustworthiness, and being followed-up by the same person. Participants suggested that a strategy to break down barriers for boys to consult in face-to-face settings is to have a consultation on the internet as a first step which could then guide the person to an in-person consultation if necessary. Conclusions: The internet as a means of obtaining information or consulting received high marks overall. Although the internet cannot replace an in-person consultation, the screen and the keyboard have the advantage of not involving a face-to-face encounter and raise the possibility of discussing sexual problems anonymously and in private. The internet tools together with other new technologies should continue to develop in a secure manner as a space providing prevention messages and to become an easy access door to sexual and reproductive health services for young men, which can then guide youths to appropriate resource persons. Sources of support: This study was supported by the Maurice Chalumeau Foundation, Switzerland.
Resumo:
Qui sait qu'en Suisse, les associations patronales mettent en oeuvre l'Etat social ? Qui sait que associations organisent la majorité des caisses de compensation, dont la fonction principale est de collecter les cotisations et de payer les rentes de l'Assurance-vieillesse et survivants ? Qui connaît ces caisses par lesquelles transitent les milliards de l'Etat social ? L'objectif de cette thèse consiste à comprendre les raisons qui ont poussé le patronat helvétique à mettre en oeuvre les politiques de protection sociale, dont il a pourtant toujours essayé de limiter le développement. Résoudre ce paradoxe implique de se pencher sur près d'un siècle d'histoire mêlée du patronat et des politiques sociales. Ce travail retrace, sur la base d'archives privées et publiques souvent inédites, les raisons qui ont poussé les patrons à créer les premières caisses de compensation dans l'entre-deux-guerres, puis à imposer cette forme d'organisation pour l'aide aux soldats mobilisés (autour de 1940) et l'Assurance- vieillesse et survivants (autour de 1948). Il étudie également comment les associations patronales sont parvenues à défendre leurs caisses jusqu'à aujourd'hui, contre ceux qui dénonçaient l'irrationalité de l'existence d'une centaine de caisses de compensation publiques et privées concurrentes pour mettre en oeuvre un seul système d'assurances sociales. Cette recherche amène deux grands résultats. D'une part, elle propose une histoire originale des politiques sociales en Suisse. Le prisme des caisses de compensation patronales contribue en effet à interroger notre compréhension de l'histoire des politiques de protection sociale, dans laquelle on sous-estime parfois l'importance des conflits pour fixer les frontières entre formes de protection publique et privée. D'autre part, ce travail présente une histoire inédite de l'action collective des patrons dans les régulations du travail au sens large. A travers les caisses de compensation, c'est en effet à réaliser une histoire de l'Union centrale des associations patronales suisses que je me suis aussi attelé. Faute de parvenir à empêcher tout développement des politiques sociales, les patrons ont fait en sorte d'acquérir sur ces politiques une forme de mainmise. Entre histoire des politiques sociales et histoire du patronat, ce travail tente d'expliquer comment les caisses de compensation y ont contribué. Who knows that, in Switzerland, employers' associations implement the best known policies constituting the welfare state? Who knows that the equalization funds, (Caisses de compensation / Ausgleichskassen), organized by employers' associations or by the Swiss Cantons, are responsible for pooling payroll deductions and for paying benefits of the Swiss public pay-as-you-go, old-age insurance and many other branches of the welfare policies? Who knows these caisses de compensation that channel the monies dedicated to the financing of the Welfare state ? The main objective of this research is to understand the reasons why Swiss employers do implement such welfare policies that they usually reject for political reasons. In order to solve this puzzle, this research investigates half of a century of the connected histories of welfare policies and employers' collective action. It also investigates, based on public and private archive records, how employers founded the first caisses in the Interwar period, and imposed them to organize the main developments of the Welfare state during the Second World War. The research also underlines how employers defended their caisses de compensation against those questioning the rationality of this fragmented system aiming to implement one single set of public welfare through one hundred competing private and public caisses de compensation. This research highlights two main results. On the one hand, it helps to improve our understanding of the history of the welfare policies in Switzerland. Underlining the role of the caisses de compensation helps to highlight the importance of the interplay of public and private actors regarding social polices. On the other hand, this research charts a pioneering history of Swiss' employers' collective action regarding labor issues. Because they could not prevent all public welfare policy, employers achieved a form of stranglehold (mainmise) on the welfare State. Halfway between social policy and employers' associations' history, this research try to reveal how their caisses de compensation helped them in this objective.
Resumo:
Biochemical systems are commonly modelled by systems of ordinary differential equations (ODEs). A particular class of such models called S-systems have recently gained popularity in biochemical system modelling. The parameters of an S-system are usually estimated from time-course profiles. However, finding these estimates is a difficult computational problem. Moreover, although several methods have been recently proposed to solve this problem for ideal profiles, relatively little progress has been reported for noisy profiles. We describe a special feature of a Newton-flow optimisation problem associated with S-system parameter estimation. This enables us to significantly reduce the search space, and also lends itself to parameter estimation for noisy data. We illustrate the applicability of our method by applying it to noisy time-course data synthetically produced from previously published 4- and 30-dimensional S-systems. In addition, we propose an extension of our method that allows the detection of network topologies for small S-systems. We introduce a new method for estimating S-system parameters from time-course profiles. We show that the performance of this method compares favorably with competing methods for ideal profiles, and that it also allows the determination of parameters for noisy profiles.
Resumo:
AbstractFor a wide range of environmental, hydrological, and engineering applications there is a fast growing need for high-resolution imaging. In this context, waveform tomographic imaging of crosshole georadar data is a powerful method able to provide images of pertinent electrical properties in near-surface environments with unprecedented spatial resolution. In contrast, conventional ray-based tomographic methods, which consider only a very limited part of the recorded signal (first-arrival traveltimes and maximum first-cycle amplitudes), suffer from inherent limitations in resolution and may prove to be inadequate in complex environments. For a typical crosshole georadar survey the potential improvement in resolution when using waveform-based approaches instead of ray-based approaches is in the range of one order-of- magnitude. Moreover, the spatial resolution of waveform-based inversions is comparable to that of common logging methods. While in exploration seismology waveform tomographic imaging has become well established over the past two decades, it is comparably still underdeveloped in the georadar domain despite corresponding needs. Recently, different groups have presented finite-difference time-domain waveform inversion schemes for crosshole georadar data, which are adaptations and extensions of Tarantola's seminal nonlinear generalized least-squares approach developed for the seismic case. First applications of these new crosshole georadar waveform inversion schemes on synthetic and field data have shown promising results. However, there is little known about the limits and performance of such schemes in complex environments. To this end, the general motivation of my thesis is the evaluation of the robustness and limitations of waveform inversion algorithms for crosshole georadar data in order to apply such schemes to a wide range of real world problems.One crucial issue to making applicable and effective any waveform scheme to real-world crosshole georadar problems is the accurate estimation of the source wavelet, which is unknown in reality. Waveform inversion schemes for crosshole georadar data require forward simulations of the wavefield in order to iteratively solve the inverse problem. Therefore, accurate knowledge of the source wavelet is critically important for successful application of such schemes. Relatively small differences in the estimated source wavelet shape can lead to large differences in the resulting tomograms. In the first part of my thesis, I explore the viability and robustness of a relatively simple iterative deconvolution technique that incorporates the estimation of the source wavelet into the waveform inversion procedure rather than adding additional model parameters into the inversion problem. Extensive tests indicate that this source wavelet estimation technique is simple yet effective, and is able to provide remarkably accurate and robust estimates of the source wavelet in the presence of strong heterogeneity in both the dielectric permittivity and electrical conductivity as well as significant ambient noise in the recorded data. Furthermore, our tests also indicate that the approach is insensitive to the phase characteristics of the starting wavelet, which is not the case when directly incorporating the wavelet estimation into the inverse problem.Another critical issue with crosshole georadar waveform inversion schemes which clearly needs to be investigated is the consequence of the common assumption of frequency- independent electromagnetic constitutive parameters. This is crucial since in reality, these parameters are known to be frequency-dependent and complex and thus recorded georadar data may show significant dispersive behaviour. In particular, in the presence of water, there is a wide body of evidence showing that the dielectric permittivity can be significantly frequency dependent over the GPR frequency range, due to a variety of relaxation processes. The second part of my thesis is therefore dedicated to the evaluation of the reconstruction limits of a non-dispersive crosshole georadar waveform inversion scheme in the presence of varying degrees of dielectric dispersion. I show that the inversion algorithm, combined with the iterative deconvolution-based source wavelet estimation procedure that is partially able to account for the frequency-dependent effects through an "effective" wavelet, performs remarkably well in weakly to moderately dispersive environments and has the ability to provide adequate tomographic reconstructions.
Resumo:
The Helvetic nappe system in Western Switzerland is a stack of fold nappes and thrust sheets em-placed at low grade metamorphism. Fold nappes and thrust sheets are also some of the most common features in orogens. Fold nappes are kilometer scaled recumbent folds which feature a weakly deformed normal limb and an intensely deformed overturned limb. Thrust sheets on the other hand are characterized by the absence of overturned limb and can be defined as almost rigid blocks of crust that are displaced sub-horizontally over up to several tens of kilometers. The Morcles and Doldenhom nappe are classic examples of fold nappes and constitute the so-called infra-Helvetic complex in Western and Central Switzerland, respectively. This complex is overridden by thrust sheets such as the Diablerets and Wildhörn nappes in Western Switzerland. One of the most famous example of thrust sheets worldwide is the Glariis thrust sheet in Central Switzerland which features over 35 kilometers of thrusting which are accommodated by a ~1 m thick shear zone. Since the works of the early Alpine geologist such as Heim and Lugeon, the knowledge of these nappes has been steadily refined and today the geometry and kinematics of the Helvetic nappe system is generally agreed upon. However, despite the extensive knowledge we have today of the kinematics of fold nappes and thrust sheets, the mechanical process leading to the emplacement of these nappe is still poorly understood. For a long time geologist were facing the so-called 'mechanical paradox' which arises from the fact that a block of rock several kilometers high and tens of kilometers long (i.e. nappe) would break internally rather than start moving on a low angle plane. Several solutions were proposed to solve this apparent paradox. Certainly the most successful is the theory of critical wedges (e.g. Chappie 1978; Dahlen, 1984). In this theory the orogen is considered as a whole and this change of scale allows thrust sheet like structures to form while being consistent with mechanics. However this theoiy is intricately linked to brittle rheology and fold nappes, which are inherently ductile structures, cannot be created in these models. When considering the problem of nappe emplacement from the perspective of ductile rheology the problem of strain localization arises. The aim of this thesis was to develop and apply models based on continuum mechanics and integrating heat transfer to understand the emplacement of nappes. Models were solved either analytically or numerically. In the first two papers of this thesis we derived a simple model which describes channel flow in a homogeneous material with temperature dependent viscosity. We applied this model to the Morcles fold nappe and to several kilometer-scale shear zones worldwide. In the last paper we zoomed out and studied the tectonics of (i) ductile and (ii) visco-elasto-plastic and temperature dependent wedges. In this last paper we focused on the relationship between basement and cover deformation. We demonstrated that during the compression of a ductile passive margin both fold nappes and thrust sheets can develop and that these apparently different structures constitute two end-members of a single structure (i.e. nappe). The transition from fold nappe to thrust sheet is to first order controlled by the deformation of the basement. -- Le système des nappes helvétiques en Suisse occidentale est un empilement de nappes de plis et de nappes de charriage qui se sont mis en place à faible grade métamorphique. Les nappes de plis et les nappes de charriage sont parmi les objets géologiques les plus communs dans les orogènes. Les nappes de plis sont des plis couchés d'échelle kilométrique caractérisés par un flanc normal faiblement défor-mé, au contraire de leur flanc inverse, intensément déformé. Les nappes de charriage, à l'inverse se caractérisent par l'absence d'un flanc inverse bien défini. Elles peuvent être définies comme des blocs de croûte terrestre qui se déplacent de manière presque rigide qui sont déplacés sub-horizontalement jusqu'à plusieurs dizaines de kilomètres. La nappe de Mordes et la nappe du Doldenhorn sont des exemples classiques de nappes de plis et constitue le complexe infra-helvétique en Suisse occidentale et centrale, respectivement. Ce complexe repose sous des nappes de charriages telles les nappes des Diablerets et du Widlhörn en Suisse occidentale. La nappe du Glariis en Suisse centrale se distingue par un déplacement de plus de 35 kilomètres qui s'est effectué à la faveur d'une zone de cisaillement basale épaisse de seulement 1 mètre. Aujourd'hui la géométrie et la cinématique des nappes alpines fait l'objet d'un consensus général. Malgré cela, les processus mécaniques par lesquels ces nappes se sont mises en place restent mal compris. Pendant toute la première moitié du vingtième siècle les géologues les géologues ont été confrontés au «paradoxe mécanique». Celui-ci survient du fait qu'un bloc de roche haut de plusieurs kilomètres et long de plusieurs dizaines de kilomètres (i.e., une nappe) se fracturera de l'intérieur plutôt que de se déplacer sur une surface frictionnelle. Plusieurs solutions ont été proposées pour contourner cet apparent paradoxe. La solution la plus populaire est la théorie des prismes d'accrétion critiques (par exemple Chappie, 1978 ; Dahlen, 1984). Dans le cadre de cette théorie l'orogène est considéré dans son ensemble et ce simple changement d'échelle solutionne le paradoxe mécanique (la fracturation interne de l'orogène correspond aux nappes). Cette théorie est étroitement lié à la rhéologie cassante et par conséquent des nappes de plis ne peuvent pas créer au sein d'un prisme critique. Le but de cette thèse était de développer et d'appliquer des modèles basés sur la théorie de la méca-nique des milieux continus et sur les transferts de chaleur pour comprendre l'emplacement des nappes. Ces modèles ont été solutionnés de manière analytique ou numérique. Dans les deux premiers articles présentés dans ce mémoire nous avons dérivé un modèle d'écoulement dans un chenal d'un matériel homogène dont la viscosité dépend de la température. Nous avons appliqué ce modèle à la nappe de Mordes et à plusieurs zone de cisaillement d'échelle kilométrique provenant de différents orogènes a travers le monde. Dans le dernier article nous avons considéré le problème à l'échelle de l'orogène et avons étudié la tectonique de prismes (i) ductiles, et (ii) visco-élasto-plastiques en considérant les transferts de chaleur. Nous avons démontré que durant la compression d'une marge passive ductile, a la fois des nappes de plis et des nappes de charriages peuvent se développer. Nous avons aussi démontré que nappes de plis et de charriages sont deux cas extrêmes d'une même structure (i.e. nappe) La transition entre le développement d'une nappe de pli ou d'une nappe de charriage est contrôlé au premier ordre par la déformation du socle. -- Le système des nappes helvétiques en Suisse occidentale est un emblement de nappes de plis et de nappes de chaînage qui se sont mis en place à faible grade métamoiphique. Les nappes de plis et les nappes de charriage sont parmi les objets géologiques les plus communs dans les orogènes. Les nappes de plis sont des plis couchés d'échelle kilométrique caractérisés par un flanc normal faiblement déformé, au contraire de leur flanc inverse, intensément déformé. Les nappes de charriage, à l'inverse se caractérisent par l'absence d'un flanc inverse bien défini. Elles peuvent être définies comme des blocs de croûte terrestre qui se déplacent de manière presque rigide qui sont déplacés sub-horizontalement jusqu'à plusieurs dizaines de kilomètres. La nappe de Morcles and la nappe du Doldenhorn sont des exemples classiques de nappes de plis et constitue le complexe infra-helvétique en Suisse occidentale et centrale, respectivement. Ce complexe repose sous des nappes de charriages telles les nappes des Diablerets et du Widlhörn en Suisse occidentale. La nappe du Glarüs en Suisse centrale est certainement l'exemple de nappe de charriage le plus célèbre au monde. Elle se distingue par un déplacement de plus de 35 kilomètres qui s'est effectué à la faveur d'une zone de cisaillement basale épaisse de seulement 1 mètre. La géométrie et la cinématique des nappes alpines fait l'objet d'un consensus général parmi les géologues. Au contraire les processus physiques par lesquels ces nappes sont mises en place reste mal compris. Les sédiments qui forment les nappes alpines se sont déposés à l'ère secondaire et à l'ère tertiaire sur le socle de la marge européenne qui a été étiré durant l'ouverture de l'océan Téthys. Lors de la fermeture de la Téthys, qui donnera naissance aux Alpes, le socle et les sédiments de la marge européenne ont été déformés pour former les nappes alpines. Le but de cette thèse était de développer et d'appliquer des modèles basés sur la théorie de la mécanique des milieux continus et sur les transferts de chaleur pour comprendre l'emplacement des nappes. Ces modèles ont été solutionnés de manière analytique ou numérique. Dans les deux premiers articles présentés dans ce mémoire nous nous sommes intéressés à la localisation de la déformation à l'échelle d'une nappe. Nous avons appliqué le modèle développé à la nappe de Morcles et à plusieurs zones de cisaillement provenant de différents orogènes à travers le monde. Dans le dernier article nous avons étudié la relation entre la déformation du socle et la défonnation des sédiments. Nous avons démontré que nappe de plis et nappes de charriages constituent les cas extrêmes d'un continuum. La transition entre nappe de pli et nappe de charriage est intrinsèquement lié à la déformation du socle sur lequel les sédiments reposent.
Resumo:
The empirical literature on the asset allocation and medical expenditures of U.S. households consistently shows that risky portfolio shares are increasing in both wealth and health whereas health investment shares are decreasing in these same variables. Despite this evidence, most of the existing models treat financial and health-related choices separately. This paper bridges this gap by proposing a tractable framework for the joint determination of optimal consumption, portfolio and health investments. We solve for the optimal rules in closed form and show that the model can theoretically reproduce the empirical facts. Capitalizing on this closed-form solution, we perform a structural estimation of the model on HRS data. Our parameter estimates are reasonable and confirm the relevance of all the main characteristics of the model.
Resumo:
In cooperative multiagent systems, agents interac to solve tasks. Global dynamics of multiagent teams result from local agent interactions, and are complex and difficult to predict. Evolutionary computation has proven a promising approach to the design of such teams. The majority of current studies use teams composed of agents with identical control rules ("geneti- cally homogeneous teams") and select behavior at the team level ("team-level selection"). Here we extend current approaches to include four combinations of genetic team composition and level of selection. We compare the performance of genetically homo- geneous teams evolved with individual-level selection, genetically homogeneous teams evolved with team-level selection, genetically heterogeneous teams evolved with individual-level selection, and genetically heterogeneous teams evolved with team-level selection. We use a simulated foraging task to show that the optimal combination depends on the amount of cooperation required by the task. Accordingly, we distinguish between three types of cooperative tasks and suggest guidelines for the optimal choice of genetic team composition and level of selection