494 resultados para Intensité structurelle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

SUMMARY : The shrews are among the most ancient of living eutherian mammals. They represent an interesting comparative model because of their extreme divergent species. The two shrew subfamilies, Soricinae and Crocidurinae are characterized by fundamental differences concerning their metabolic rates, litter size, period of gestation and different mating pattern. In this study we established and compared the sperm characteristics in four species of different genera of shrews (Sorex araneus, Neomys fodiens, Crocidura russula and Suncus murinus) in the context of the sperm competition hypothesis. The sperm competition concerns the competition between ejaculates of different males for fertilization of ova of a female within a single estrus period. As expected, a greater relative testis size (indicating the importance of polyandry) was associated with a higher number of cauda epididymal spermatozoa, higher level of circulating testosterone and a higher percentage of progressive sperm motility. In addition, we investigated if the basal metabolic rate (BMR) and relative testis size (RTS) may be correlated with the cycle length of spermatogenesis. In this purpose, we determined and compared the cycle length of spermatogenesis in six species of shrews belonging to two subfamilies: Soiricinae (Sorex araneus, Sorex coronatus, Sorex minutus, Neomys fodiens) and Crocidurinae (Crocidura russula, Sunctes murinus). Our results indicate that sperm competition and metabolic rate may act independently or together reducing cycle length of spermatogenesis and thus increase sperm production. We finally investigated this correlation across 32 mammalian species. After testing the data for phylogenetic independence, our results showed that BMR explained only 21 % of the variation, while the RTS explained 44% of the variation of the cycle length of spermatogenesis. The level of the sperm competition, indicated by RTS, is thus to our knowledge the most important factor influencing the speed of spermatogenesis in mammals. RESUME : Les musaraignes sont parmi les plus anciens mammifères vivants. Grâce à leurs extrêmes divergences, ils sont souvent utilisés comme modèles dans des études comparatives. Les deux sous-familles Soricinae et Crocidurinae sont caractérisées par des différences fondamentales, notamment en termes d'intensité du métabolisme, des stratégies de reproduction et du comportement social. Dans la première partie de cette étude, nous avons établi et comparé certaines "caractéristiques des spermatozoïdes chez quatre espèces de musaraignes appartenant à des genres différents (Sorex araneus, Neomys fodiens, Crocidura russula et Suncus murinus). Les résultats ont été interprétés dans le contexte de la théorie de la compétition spermatique, c'est-à-dire la compétition entre le sperme de deux ou plusieurs mâles pour féconder un maximum d'ovules de la même femelle. Cette compétition spermatique peut amener à certaines adaptations biologiques afin de produire plus de sperme. Comme attendu, une grande taille relative des testicules est associée à un nombre élevé de spermatozoïdes, dont la majorité présente une mobilité progressive. Un taux élévé de testostérone a également été observé. De plus, nous avons étudié l'influence du métabolisme basal ainsi que l'intensité de la compétition spermatique sur la durée du cycle de la spermatogenèse. Dans ce but, nous avons déterminé et comparé les durées de la spermatogenèse chez six espèces de musaraignes appartenant à deux sous-familles : Soricinae (Sorex araneus, Sorex coronatus, Sorex minutus, Neomys fodiens) et Crocidurinae (Crocidura russula, Suncus murinus). Les résultats obtenus indiquent que ces deux facteurs (l'intensité du métabolisme basal et de la compétition spermatique) agissent d'une manière dépendante ou indépendante dans le même sens. La conséquence de ces actions est une diminution de la durée de la spermatogenèse entraînant une augmentation de la production de spermatozoïdes. Nous avons finalement étudié ce phénomène dans l'ensemble des mammifères. Après avoir testé l'indépendance phylogénétique, nos résultats montrent que l'intensité de la compétition spermatique indiquée par le RTS est mieux corrélée avec la régulation de la durée de la spermatogenèse qu'avec l'intensité du métabolisme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RésuméL'origine de l'obésité, qui atteint des proportions épidémiques, est complexe. Elle est liée au mode de vie et au comportement des individus par rapport à l'activité physique, expression des choix individuels et de l'interaction avec l'environnement. Les mesures du comportement au niveau de l'activité physique des individus face à leur environnement, la répartition des types d'activité physique, la durée, la fréquence, l'intensité, et la dépense énergétique sont d'une grande importance. Aujourd'hui, il y a un manque de méthodes permettant une évaluation précise et objective de l'activité physique et du comportement des individus. Afin de compléter les recherches relatives à l'activité physique, à l'obésité et à certaines maladies, le premier objectif du travail de thèse était de développer un modèle pour l'identification objective des types d'activité physique dans des conditions de vie réelles et l'estimation de la dépense énergétique basée sur une combinaison de 2 accéléromètres et 1 GPS. Le modèle prend en compte qu'une activité donnée peut être accomplie de différentes façons dans la vie réelle. Les activités quotidiennes ont pu être classées en 8 catégories, de sédentaires à actives, avec une précision de 1 min. La dépense énergétique a pu peut être prédite avec précision par le modèle. Après validation du modèle, le comportement des individus de l'activité physique a été évalué dans une seconde étude. Nous avons émis l'hypothèse que, dans un environnement caractérisé par les pentes, les personnes obèses sont tentées d'éviter les pentes raides et de diminuer la vitesse de marche au cours d'une activité physique spontanée, ainsi que pendant les exercices prescrits et structurés. Nous avons donc caractérisé, par moyen du modèle développé, le comportement des individus obèses dans un environnement vallonné urbain. La façon dont on aborde un environnement valloné dans les déplacements quotidiens devrait également être considérée lors de la prescription de marche supplémentaire afin d'augmenter l'activité physique.SummaryOrigin of obesity, that reached epidemic proportion, is complex and may be linked to different lifestyle and physical activity behaviour. Measurement of physical activity behaviour of individuals towards their environment, the distribution of physical activity in terms of physical activity type, volume, duration, frequency, intensity, and energy expenditure is of great importance. Nowadays, there is a lack of methods for accurate and objective assessment of physical activity and of individuals' physical activity behaviour. In order to complement the research relating physical activity to obesity and related diseases, the first aim of the thesis work was to develop a model for objective identification of physical activity types in real-life condition and energy expenditure based on a combination of 2 accelerometers and 1 GPS device. The model takes into account that a given activity can be achieved in many different ways in real life condition. Daily activities could be classified in 8 categories, as sedentary to active physical activity, within 1 min accuracy, and physical activity patterns determined. The energy expenditure could be predicted accurately with an accuracy below 10%. Furthermore, individuals' physical activity behaviour is expression of individual choices and their interaction with the neighbourhood environment. In a second study, we hypothesized that, in an environment characterized by inclines, obese individuals are tempted to avoid steep positive slopes and to decrease walking speed during spontaneous outdoor physical activity, as well as during prescribed structured bouts of exercise. Finally, we characterized, by mean of the developed model, the physical activity behaviour of obese individuals in a hilly urban environment. Quantifying how one tackles hilly environment or avoids slope in their everyday displacements should be also considered while prescribing extra walking in free-living conditions in order to increase physical activity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'endocardite infectieuse (EI) est une maladie potentiellement mortelle qui doit être prévenue dans toute la mesure du possible. Au cours de ces dernières 50 années, les recommandations Américaines et Européennes pour la prophylaxie de PEI proposaient aux patients à risques de prendre un antibiotique, préventif avant de subir une intervention médico-chirurgicale susceptible d'induire une bactériémie transitoire. Cependant, des études épidémiologiques récentes ont montré que la plupart des EI survenaient en dehors de tous actes médico-chirurgicaux, et indépendamment de la prise ou non de prophylaxie antibiotique . L'EI pourrait donc survenir suite à la cumulation de bactériémies spontanées de faibles intensités, associées à des activités de la vie courante telle que le brossage dentaire pour le streptocoques, ou à partir de tissus colonisés ou de cathéters infectés pour les staphylocoques. En conséquence, les recommandations internationales pour la prophylaxie de PEI ont été revues et proposent une diminution drastique de l'utilisation d'antibiotiques. Cependant, le risque d'EI représenté par le cumul de bactériémies de faibles intensités n'a pas été démontré expérimentalement. Nous avons développé un nouveau modèle d'EI expérimentale induite par une inoculation en continu d'une faible quantité de bactéries, simulant le cumul de bactériémies de faibles intensités chez l'homme, et comparé l'infection de Streptococcus gordonii et de Staphylococcus aureus dans ce modèle avec celle du modèle d'IE induite par une bactériémie brève, mais de forte intensité. Nous avons démontré, après injection d'une quantité égale de bactéries, que le nombre de végétations infectées était similaire dans les deux types d'inoculations. Ces résultats expérimentaux ont confirmé l'hypothèse qu'une exposition cumulée à des bactériémies de faibles intensités, en dehors d'une procédure médico-chirurgicale, représentait un risque pour le développement d'une El, comme le suggéraient les études épidémiologiques. En plus, ces résultats ont validé les nouvelles recommandations pour la prophylaxie de l'El, limitant drastiquement l'utilisation d'antibiotiques. Cependant, ces nouvelles recommandations laissent une grande partie (> 90%) de cas potentiels d'EI sans alternatives de préventions, et des nouvelles stratégies prophylactiques doivent être investiguées. Le nouveau modèle d'EI expérimentale représente un modèle réaliste pour étudier des nouvelles mesures prophylactiques potentielles appliquées à des expositions cumulées de bactériémies de faible nombre. Dans un contexte de bactériémies spontanées répétitives, les antibiotiques ne peuvent pas résoudre le problème de la prévention de l'EI. Nous avons donc étudié la une alternative de prévention par l'utilisation d'agents antiplaquettaires. La logique derrière cette approche était basée sur le fait que les plaquettes sont des composants clés dans la formation des végétations cardiaques, et le fait que les bactéries capables d'interagir avec les plaquettes sont plus enclines à induire une El. Les agents antiplaquettaires utilisés ont été l'aspirine (inhibiteur du COX1), la ticlopidine (inhibiteur du P2Y12, le récepteur de l'ADP), et l'eptifibatide et Pabciximab, deux inhibiteurs du GPIIb/IIIa, le récepteur plaquettaire pour le fibrinogène. Les anticoagulants étaient le dabigatran etexilate, inhibant lathrombine et l'acenocumarol, un antagoniste de la vitamine K. L'aspirine, la ticlopidine ou l'eptifibatide seuls n'ont pas permis de prévenir l'infection valvulaire (> 75% animaux infectés). En revanche, la combinaison d'aspirine et de ticlopidine, aussi bien que l'abciximab, ont protégé 45% - 88% des animaux de l'EI par S. gordonii et par S. aureus. L'antithrombotique dabigatran etexilate à protégé 75% des rats contre l'EI par S. aureus, mais pas (< 30% de protection) par S. gordonii. L'acenocoumarol n'a pas eu d'effet sur aucun des deux organismes. En général, ces résultats suggèrent un possible rôle pour les antiplaquettaires et du dabigatran etexilate dans la prophylaxie de l'EI dans un contexte de bactériémies récurrentes de faibles intensités. Cependant, l'effet bénéfique des antiplaquettaires doit être soupesé avec le risque d'hémorragie inhérent à ces molécules, et le fait que les plaquettes jouent un important rôle dans les défenses de l'hôte contre les infections endovasculaires. En plus, le double effet bénéfique du dabigatran etexilate devrait être revu chez les patients porteurs de valves prothétiques, qui ont besoin d'une anticoagulation à vie, et chez lesquels l'EI à S. aureus est associée avec une mortalité de près de 50%. Comme l'approche avec des antiplaquettaires et des antithrombotiques pourrait avoir des limites, une autre stratégie prophylactique pourrait être la vaccination contre des adhésines de surfaces des pathogènes. Chez S. aureus, la protéine de liaison au fibrinogène, ou dumping factor A (ClfA), et la protéine de liaison à la fibronectine (FnbpA) sont des facteurs de virulence nécessaires à l'initiation et l'évolution de PEI. Elles représentent donc des cibles potentielles pour le développement de vaccins contre cette infection. Récemment, des nombreuses publications ont décrit que la bactérie Lactococcus lactis pouvait être utilisée comme vecteur pour la diffusion d'antigènes bactériens in vivo, et que cette approche pourrait être une stratégie de vaccination contre les infections bactériennes. Nous avons exploré l'effet de l'immunisation par des recombinant de L. lactis exprimant le ClfA, la FnbpA, ou le ClfA ensemble avec et une forme tronquée de la FnbpA (Fnbp, comprenant seulement le domaine de liaison à la fibronectine mais sans le domaine A de liaison au fibrinogène [L. lactis ClfA/Fnbp]), dans la prophylaxie de PIE expérimentale à S. aureus. L. lactis ClfA a été utilisés comme agent d'immunisation contre la souche S. aureus Newman (qui a particularité de n'exprimer que le ClfA, mais pas la FnbpA). L. lactis ClfA, L. lactis FnbpA, et L. lactis ClfA/Fnbp, ont été utilisé comme agents d'immunisation contre une souche isolée d'une IE, S. aureus P8 (exprimant ClfA et FnbpA). L'immunisation avec L. lactis ClfA a généré des anticorps anti-ClfA fonctionnels, capables de bloquer la liaison de S. aureus Newman au fibrinogène in vitro et protéger 13/19 (69%) animaux d'une El due à S. aureus Newman (P < 0.05 comparée aux contrôles). L'immunisation avec L. lactis ClfA, L. lactis FnbpA, ou L. lactis ClfA/Fnbp, a généré des anticorps contre chacun de ces antigènes. Cependant, ils n'ont pas permis de bloquer l'adhésion de S. aureus P8 au fibrinogène et à la fibronectine in vitro. De plus, l'immunisation avec L. lactis ClfA ou L. lactis FnbpA s'est avérée inefficace in vivo (< 10% d'animaux protégés d'une El) et l'immunisation avec L. lactis ClfA/Fnbp a fourni une protection limitée de l'EI (8/23 animaux protégés; P < 0.05 comparée aux contrôles) après inoculation avec S. aureus P8. Dans l'ensemble, ces résultats indiquent que L. lactis est un système efficace pour la présentation d'antigènes in vivo et potentiellement utile pour la prévention de PEI à S. aureus. Cependant, le répertoire de protéines de surface de S. aureus capable d'évoquer une panoplie d'anticorps efficace reste à déterminer.. En résumé, notre étude a démontré expérimentalement, pour la première fois, qu'une bactériémie répétée de faible intensité, simulant la bactériémie ayant lieu, par exemple, lors des activités de la vie quotidienne, est induire un taux d'EI expérimentale similaire à celle induite par une bactériémie de haute intensité suite à une intervention médicale. Dans ce contexte, où l'utilisation d'antibiotiques est pas raisonnable, nous avons aussi montré que d'autres mesures prophylactiques, comme l'utilisation d'agents antiplaquettaires ou antithrombotiques, ou la vaccination utilisant L. lactis comme vecteur d'antigènes bactériens, sont des alternatives prometteuses qui méritent d'être étudiées plus avant. Thesis Summary Infective endocarditis (IE) is a life-threatening disease that should be prevented whenever possible. Over the last 50 years, guidelines for IE prophylaxis proposed the use of antibiotics in patients undergoing dental or medico-surgical procedures that might induce high, but transient bacteremia. However, recent epidemiological studies indicate that IE occurs independently of medico-surgical procedures and the fact that patients had taken antibiotic prophylaxis or not, i.e., by cumulative exposure to random low-grade bacteremia, associated with daily activities (e.g. tooth brushing) in the case of oral streptococci, or with a colonized site or infected device in the case of staphylococci. Accordingly, the most recent American and European guidelines for IE prophylaxis were revisited and updated to drastically restrain antibiotic use. Nevertheless, the relative risk of IE represented by such cumulative low-grade bacteremia had never been demonstrated experimentally. We developed a new model of experimental IE due to continuous inoculation of low-grade bacteremia, mimicking repeated low-grade bacteremia in humans, and compared the infectivity of Streptococcus gordonii and Staphylococcus aureus in this model to that in the model producing brief, high-level bacteremia. We demonstrated that, after injection of identical bacterial numbers, the rate of infected vegetations was similar in both types of challenge. These experimental results support the hypothesis that cumulative exposure to low-grade bacteremia, outside the context of procedure-related bacteremia, represents a genuine risk of IE, as suggested by human epidemiological studies. In addition, they validate the newer guidelines for IE prophylaxis, which drastic limit the procedures in which antibiotic prophylaxis is indicated. Nevertheless, these refreshed guidelines leave the vast majority (> 90%) of potential IE cases without alternative propositions of prevention, and novel strategies must be considered to propose effective alternative and "global" measures to prevent IE initiation. The more realistic experimental model of IE induced by low-grade bacteremia provides an accurate experimental setting to study new preventive measures applying to cumulative exposure to low bacterial numbers. Since in a context of spontaneous low-grade bacteremia antibiotics are unlikely to solve the problem of IE prevention, we addressed the role of antiplatelet and anticoagulant agents for the prophylaxis of experimental IE induced by S. gordonii and S. aureus. The logic of this approach was based on the fact that platelets are key players in vegetation formation and vegetation enlargement, and on the fact that bacteria capable of interacting with platelets are more prone to induce IE. Antiplatelet agents included the COX1 inhibitor aspirin, the inhibitor of the ADP receptor P2Y12 ticlopidine, and two inhibitors of the platelet fibrinogen receptor GPIIb/IIIa, eptifibatide and abciximab. Anticoagulants included the thrombin inhibitor dabigatran etexilate and the vitamin K antagonist acenocoumarol. Aspirin, ticlopidine or eptifibatide alone failed to prevent aortic infection (> 75% infected animals). In contrast, the combination of aspirin with ticlopidine, as well as abciximab, protected 45% to 88% of animals against IE due to S. gordonii and S. aureus. The antithrombin dabigatran etexilate protected 75% of rats against IE due to S. aureus, but failed (< 30% protection) against S. gordonii. Acenocoumarol had no effect against any bacteria. Overall, these results suggest a possible role for antiplatelet agents and dabigatran etexilate in the prophylaxis of IE in humans in a context of recurrent low- grade bacteremia. However, the potential beneficial effect of antiplatelet agents should be balanced against the risk of bleeding and the fact that platelets play an important role in the host defenses against intravascular infections. In addition, the potential dual benefit of dabigatran etexilate might be revisited in patients with prosthetic valves, who require life-long anticoagulation and in whom S. aureus IE is associated with high mortality rate. Because the antiplatelet and anticoagulant approach might be limited in the context of S. aureus bacteremia, other prophylactic strategies for the prevention of S. aureus IE, like vaccination with anti-adhesion proteins was tested. The S. aureus surface proteins fibrinogen-binding protein clumping-factor A (ClfA) and the fibronectin-binding protein A (FnbpA) are critical virulence factors for the initiation and development of IE. Thus, they represent key targets for vaccine development against this disease. Recently, numerous reports have described that the harmless bacteria Lactococcus lactis can be used as a bacterial vector for the efficient delivery of antigens in vivo, and that this approach is a promising vaccination strategy against bacterial infections. We therefore explored the immunization capacity of non- living recombinant L. lactis ClfA, L. lactis FnbpA, or L. lactis expressing ClfA together with Fnbp (a truncated form of FnbpA with only the fibronectin-binding domain but lacking the fibrinogen-binding domain A [L. lactis ClfA/Fnbp]), to protect against S. aureus experimental IE. L. lactis ClfA was used as immunization agent against the laboratory strain S. aureus Newman (expressing ClfA, but lacking FnbpA). L. lactis ClfA, L. lactis FnbpA, as well as L. lactis ClfA/Fnbp, were used as immunization agents against the endocarditis isolate S. aureus P8 (expressing both ClfA and FnbpA). Immunization with L. lactis ClfA produced anti-ClfA functional antibodies, which were able to block the binding of S. aureus Newman to fibrinogen in vitro and protect 13/19 (69%) animals from IE due to S. aureus Newman (P < 0.05 compared to controls). Immunization with L. lactis ClfA, L. lactis FnbpA or L. lactis ClfA/Fnbp, produced antibodies against each antigen. However, they were not sufficient to block S. aureus P8 binding to fibrinogen and fibronectin in vitro. Moreover, immunization with L. lactis ClfA or L. lactis FnbpA was ineffective (< 10% protected animals) and immunization with L. lactis ClfA/Fnbp conferred limited protection from IE (8/23 protected animals; P < 0.05 compared to controls) after challenge with S. aureus P8. Together, these results indicate that L. lactis is an efficient delivering antigen system potentially useful for preventing S. aureus IE. They also demonstrate that expressing multiple antigens in L. lactis, yet to be elucidated, will be necessary to prevent IE due to clinical S. aureus strains fully equipped with virulence determinants. In summary, our study has demonstrated experimentally, for the first time, the hypothesis that low-grade bacteremia, mimicking bacteremia occurring outside of a clinical intervention, is equally prone to induce experimental IE as high-grade bacteremia following medico-surgical procedures. In this context, where the use of antibiotics for the prophylaxis of IE is limited, we showed that other prophylactic measures, like the use of antiplatelets, anticoagulants, or vaccination employing L. lactis as delivery vector of bacterial antigens, are reasonable alternatives that warrant to be further investigated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMEDurant la phase de récupération d'un exercice de course à pied d'intensité maximale ou submaximale, une augmentation de la pression artérielle systolique centrale (aortique) résultant de la réflexion des ondes de pouls sur l'arbre vasculaire est constatée chez l'individu en bonne santé. En diastole cependant, l'impact de la réflexion de ces ondes de pouls sur la pression centrale demeure inconnu durant la récupération d'un exercice.Nous avons évalué les ondes de pouls centrales systolique et diastolique chez onze athlètes d'endurance durant la phase de récupération d'un exercice de course à pied dans des conditions d'effort maximal (sur tapis de course) et lors d'un effort submaximal lors d'une course à pied de 4000 mètres en plein air sur terrain mixte.Pour chaque sujet et lors des deux exercices, l'onde de pouls a été mesurée au niveau radial par tonométrie d'aplanation durant une phase de repos précédant l'exercice, puis à 5, 15, 25, 35 et 45 minutes après la fin de l'exercice. En utilisant une fonction mathématique de transfert, l'onde de pouls centrale a été extrapolée à partir de l'onde de pouls radiale. En compilant la forme de l'onde de pouls centrale avec une mesure simultanée de la pression artérielle brachiale, un index d'augmentation de l'onde de pouls en systole (Alx) et en diastole (Als) peut être calculé, reflétant l'augmentation des pressions résultant de la réflexion des ondes sur l'arbre vasculaire périphérique.A 5 minutes de la fin de l'exercice, les deux index ont été mesurés moindres que ceux mesurés lors de la phase précédant celui-ci. Lors des mesures suivantes, Alx est resté bas, alors que Aid a progressivement augmenté pour finalement dépasser la valeur de repos après 45 minutes de récupération. Le même phénomène a été constaté pour les deux modalités d'exercice (maximal ou submaximal). Ainsi, au-delà de quelques minutes de récupération après un exercice de course d'intensité maximale ou submaximale, nous avons montré par ces investigations que les ondes de pouls réfléchies en périphérie augmentent de façon sélective la pression centrale en diastole chez l'athlète d'endurance.ABSTRACTDuring recovery from a maximal or submaximal aerobic exercise, augmentation of central (aortic) systolic pressure by reflected pressure waves is blunted in healthy humans. However, the extent to which reflected pressure waves modify the central pulse in diastole in these conditions remains unknown. We evaluated systolic and diastolic central reflected waves in 11 endurance-trained athletes on recovery from a maximal running test on a treadmill (treadmill-max) and a 4000m run in field conditions. On both occasions in each subject, the radial pulse was recorded with applanation tonometry in the resting preexercise state and then 5, 15, 25, 35, and 45 minutes after exercise termination. From the central waveform, as reconstructed by application of a generalized transfer function, we computed a systolic (Alx) and a diastolic index (Aid) of pressure augmentation by reflections. At 5 minutes, both indices were below preexercise. At further time-points, Alx remained low, while Aid progressively increased, to overshoot above preexercise at 45 minutes. The same behavior was observed with both exercise types. Beyond the first few minutes of recovery following either maximal or submaximal aerobic exercise, reflected waves selectively augment the central pressure pulse in diastole, at least in endurance- trained athletes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Les brûlures graves (> 20 % surface corporelle [SC]) entraînent un stress oxydatif intense, des perturbations métaboliques et une réponse inflammatoire caractérisées par leur intensité et par leur durée, sans comparaison avec celles observées dans les autres pathologies. La modulation de ces réponses est devenue un objectif thérapeutique. Le brûlé nécessite des apports élevés en énergie (35-50 kcal/kg par jour), en glucides et en protéines (1,5-2,5 g/kg par jour) et faibles en lipides (idéalement moins de 20 % de l'apport calorique). La supplémentation en glutamine contribue à normaliser la réponse immunitaire et accélère la cicatrisation. La voie entérale (gastrique ou postpylorique) est la voie de choix et doit être utilisée dès le jour de l'accident. Les déficits aigus et précoces de micronutriments sont causés par des pertes exudatives par la peau lésée : la substitution est bénéfique sur le plan biologique et clinique. Les doses nécessaires sont de l'ordre de cinq à dix fois celles utilisées dans d'autres indications de nutrition parentérale pendant sept à 30 jours selon la SC brûlée. L'insuline qui favorise l'anabolisme et le propranolol qui réduit le catabolisme font partie de l'arsenal thérapeutique standard. Le suivi nutritionnel (poids et préalbumine hebdomadaire) est essentiel pour vérifier la réponse au support nutritionnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In vivo dosimetry is a way to verify the radiation dose delivered to the patient in measuring the dose generally during the first fraction of the treatment. It is the only dose delivery control based on a measurement performed during the treatment. In today's radiotherapy practice, the dose delivered to the patient is planned using 3D dose calculation algorithms and volumetric images representing the patient. Due to the high accuracy and precision necessary in radiation treatments, national and international organisations like ICRU and AAPM recommend the use of in vivo dosimetry. It is also mandatory in some countries like France. Various in vivo dosimetry methods have been developed during the past years. These methods are point-, line-, plane- or 3D dose controls. A 3D in vivo dosimetry provides the most information about the dose delivered to the patient, with respect to ID and 2D methods. However, to our knowledge, it is generally not routinely applied to patient treatments yet. The aim of this PhD thesis was to determine whether it is possible to reconstruct the 3D delivered dose using transmitted beam measurements in the context of narrow beams. An iterative dose reconstruction method has been described and implemented. The iterative algorithm includes a simple 3D dose calculation algorithm based on the convolution/superposition principle. The methodology was applied to narrow beams produced by a conventional 6 MV linac. The transmitted dose was measured using an array of ion chambers, as to simulate the linear nature of a tomotherapy detector. We showed that the iterative algorithm converges quickly and reconstructs the dose within a good agreement (at least 3% / 3 mm locally), which is inside the 5% recommended by the ICRU. Moreover it was demonstrated on phantom measurements that the proposed method allows us detecting some set-up errors and interfraction geometry modifications. We also have discussed the limitations of the 3D dose reconstruction for dose delivery error detection. Afterwards, stability tests of the tomotherapy MVCT built-in onboard detector was performed in order to evaluate if such a detector is suitable for 3D in-vivo dosimetry. The detector showed stability on short and long terms comparable to other imaging devices as the EPIDs, also used for in vivo dosimetry. Subsequently, a methodology for the dose reconstruction using the tomotherapy MVCT detector is proposed in the context of static irradiations. This manuscript is composed of two articles and a script providing further information related to this work. In the latter, the first chapter introduces the state-of-the-art of in vivo dosimetry and adaptive radiotherapy, and explains why we are interested in performing 3D dose reconstructions. In chapter 2 a dose calculation algorithm implemented for this work is reviewed with a detailed description of the physical parameters needed for calculating 3D absorbed dose distributions. The tomotherapy MVCT detector used for transit measurements and its characteristics are described in chapter 3. Chapter 4 contains a first article entitled '3D dose reconstruction for narrow beams using ion chamber array measurements', which describes the dose reconstruction method and presents tests of the methodology on phantoms irradiated with 6 MV narrow photon beams. Chapter 5 contains a second article 'Stability of the Helical TomoTherapy HiArt II detector for treatment beam irradiations. A dose reconstruction process specific to the use of the tomotherapy MVCT detector is presented in chapter 6. A discussion and perspectives of the PhD thesis are presented in chapter 7, followed by a conclusion in chapter 8. The tomotherapy treatment device is described in appendix 1 and an overview of 3D conformai- and intensity modulated radiotherapy is presented in appendix 2. - La dosimétrie in vivo est une technique utilisée pour vérifier la dose délivrée au patient en faisant une mesure, généralement pendant la première séance du traitement. Il s'agit de la seule technique de contrôle de la dose délivrée basée sur une mesure réalisée durant l'irradiation du patient. La dose au patient est calculée au moyen d'algorithmes 3D utilisant des images volumétriques du patient. En raison de la haute précision nécessaire lors des traitements de radiothérapie, des organismes nationaux et internationaux tels que l'ICRU et l'AAPM recommandent l'utilisation de la dosimétrie in vivo, qui est devenue obligatoire dans certains pays dont la France. Diverses méthodes de dosimétrie in vivo existent. Elles peuvent être classées en dosimétrie ponctuelle, planaire ou tridimensionnelle. La dosimétrie 3D est celle qui fournit le plus d'information sur la dose délivrée. Cependant, à notre connaissance, elle n'est généralement pas appliquée dans la routine clinique. Le but de cette recherche était de déterminer s'il est possible de reconstruire la dose 3D délivrée en se basant sur des mesures de la dose transmise, dans le contexte des faisceaux étroits. Une méthode itérative de reconstruction de la dose a été décrite et implémentée. L'algorithme itératif contient un algorithme simple basé sur le principe de convolution/superposition pour le calcul de la dose. La dose transmise a été mesurée à l'aide d'une série de chambres à ionisations alignées afin de simuler la nature linéaire du détecteur de la tomothérapie. Nous avons montré que l'algorithme itératif converge rapidement et qu'il permet de reconstruire la dose délivrée avec une bonne précision (au moins 3 % localement / 3 mm). De plus, nous avons démontré que cette méthode permet de détecter certaines erreurs de positionnement du patient, ainsi que des modifications géométriques qui peuvent subvenir entre les séances de traitement. Nous avons discuté les limites de cette méthode pour la détection de certaines erreurs d'irradiation. Par la suite, des tests de stabilité du détecteur MVCT intégré à la tomothérapie ont été effectués, dans le but de déterminer si ce dernier peut être utilisé pour la dosimétrie in vivo. Ce détecteur a démontré une stabilité à court et à long terme comparable à d'autres détecteurs tels que les EPIDs également utilisés pour l'imagerie et la dosimétrie in vivo. Pour finir, une adaptation de la méthode de reconstruction de la dose a été proposée afin de pouvoir l'implémenter sur une installation de tomothérapie. Ce manuscrit est composé de deux articles et d'un script contenant des informations supplémentaires sur ce travail. Dans ce dernier, le premier chapitre introduit l'état de l'art de la dosimétrie in vivo et de la radiothérapie adaptative, et explique pourquoi nous nous intéressons à la reconstruction 3D de la dose délivrée. Dans le chapitre 2, l'algorithme 3D de calcul de dose implémenté pour ce travail est décrit, ainsi que les paramètres physiques principaux nécessaires pour le calcul de dose. Les caractéristiques du détecteur MVCT de la tomothérapie utilisé pour les mesures de transit sont décrites dans le chapitre 3. Le chapitre 4 contient un premier article intitulé '3D dose reconstruction for narrow beams using ion chamber array measurements', qui décrit la méthode de reconstruction et présente des tests de la méthodologie sur des fantômes irradiés avec des faisceaux étroits. Le chapitre 5 contient un second article intitulé 'Stability of the Helical TomoTherapy HiArt II detector for treatment beam irradiations'. Un procédé de reconstruction de la dose spécifique pour l'utilisation du détecteur MVCT de la tomothérapie est présenté au chapitre 6. Une discussion et les perspectives de la thèse de doctorat sont présentées au chapitre 7, suivies par une conclusion au chapitre 8. Le concept de la tomothérapie est exposé dans l'annexe 1. Pour finir, la radiothérapie «informationnelle 3D et la radiothérapie par modulation d'intensité sont présentées dans l'annexe 2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Adequate supply of oxygen to the brain is critical for maintaining normal brain function. Severe hypoxia, such as that experienced during high altitude ascent, presents a unique challenge to brain oxygen (O2) supply. During high-intensity exercise, hyperventilation-induced hypocapnia leads to cerebral vasoconstriction, followed by reductions in cerebral blood flow (CBF), oxygen delivery (DO2), and tissue oxygenation. This reduced O2 supply to the brain could potentially account for the reduced performance typically observed during exercise in severe hypoxic conditions. The aims of this thesis were to document the effect of acute and chronic exposure to hypoxia on CBF control, and to determine the role of cerebral DO2 and tissue oxygenation in limiting performance during exercise in severe hypoxia. We assessed CBF, arterial O2 content (CaO2), haemoglobin concentration ([Hb]), partial pressure of arterial O2 (PaO2), cerebrovascular CO2 reactivity, ventilatory response to CO2, cerebral autoregulation (CA), and estimated cerebral DO2 (CBF ⨉ CaO2) at sea level (SL), upon ascent to 5,260 m (ALT1), and following 16 days of acclimatisation to 5,260 m (ALT16). We found an increase in CBF despite an elevated cerebrovascular CO2 reactivity at ALT1, which coincided with a reduced CA. Meanwhile, PaO2 was greatly decreased despite increased ventilatory drive at ALT1, resulting in a concomitant decrease in CaO2. At ALT16, CBF decreased towards SL values, while cerebrovascular CO2 reactivity and ventilatory drive were further elevated. Acclimatisation increased PaO2, [Hb], and therefore CaO2 at ALT16, but these changes did not improve CA compared to ALT1. No differences were observed in cerebral DO2 across SL, ALT1, and ALT16. Our findings demonstrate that cerebral DO2 is maintained during both acute and chronic exposure to 5,260 m, due to the reciprocal changes in CBF and CaO2. We measured middle cerebral artery velocity (MCAv: index of CBF), cerebral DO2, ventilation (VE), and performance during incremental cycling to exhaustion and 15km time trial cycling in both normoxia and severe hypoxia (11% O2, normobaric), with and without added CO2 to the inspirate (CO2 breathing). We found MCAv was higher during exercise in severe hypoxia compared in normoxia, while cerebral tissue oxygenation and DO2 were reduced. CO2 breathing was effective in preventing the development of hyperventilation-induced hypocapnia during intense exercise in both normoxia and hypoxia. As a result, we were able to increase both MCAv and cerebral DO2 during exercise in hypoxia with our CO2 breathing setup. However, we concomitantly increased VE and PaO2 (and presumably respiratory work) due to the increased hypercapnic stimuli with CO2 breathing, which subsequently contributed to the cerebral DO2 increase during hypoxic exercise. While we effectively restored cerebral DO2 during exercise in hypoxia to normoxic values with CO2 breathing, we did not observe any improvement in cerebral tissue oxygenation or exercise performance. Accordingly, our findings do not support the role of reduced cerebral DO2 in limiting exercise performance in severe hypoxia. -- Un apport adéquat en oxygène au niveau du cerveau est primordial pour le maintien des fonctions cérébrales normales. L'hypoxie sévère, telle qu'expérimentée au cours d'ascensions en haute altitude, présente un défi unique pour l'apport cérébral en oxygène (O2). Lors d'exercices à haute intensité, l'hypocapnie induite par l'hyperventilation entraîne une vasoconstriction cérébrale suivie par une réduction du flux sanguin cérébral (CBF), de l'apport en oxygène (DO2), ainsi que de l'oxygénation tissulaire. Cette réduction de l'apport en O2 au cerveau pourrait potentiellement être responsable de la diminution de performance observée au cours d'exercices en condition d'hypoxie sévère. Les buts de cette thèse étaient de documenter l'effet de l'exposition aiguë et chronique à l'hypoxie sur le contrôle du CBF, ainsi que de déterminer le rôle du DO2 cérébral et de l'oxygénation tissulaire comme facteurs limitant la performance lors d'exercices en hypoxie sévère. Nous avons mesuré CBF, le contenu artériel en oxygène (CaO2), la concentration en hémoglobine ([Hb]), la pression partielle artérielle en O2 (PaO2), la réactivité cérébrovasculaire au CO2, la réponse ventilatoire au CO2, et l'autorégulation cérébrale sanguine (CA), et estimé DO2 cérébral (CBF x CaO2), au niveau de la mer (SL), au premier jour à 5.260 m (ALT1) et après seize jours d'acclimatation à 5.260 m (ALT16). Nous avons trouvé des augmentations du CBF et de la réactivité cérébrovasculaire au CO2 après une ascension à 5.260 m. Ces augmentations coïncidaient avec une réduction de l'autorégulation cérébrale. Simultanément, la PaO2 était grandement réduite, malgré l'augmentation de la ventilation (VE), résultant en une diminution de la CaO2. Après seize jours d'acclimatation à 5.260 m, le CBF revenait autour des valeurs observées au niveau de la mer, alors que la réactivité cérébrovasculaire au CO2 et la VE augmentaient par rapport à ALT1. L'acclimatation augmentait la PaO2, la concentration en hémoglobine, et donc la CaO2, mais n'améliorait pas l'autorégulation cérébrale, comparé à ALT1. Aucune différence n'était observée au niveau du DO2 cérébral entre SL, ALT1 et ALT16. Nos résultats montrent que le DO2 cérébral est maintenu constant lors d'expositions aiguë et chronique à 5.260m, ce qui s'explique par la réciprocité des variations du CBF et de la CaO2. Nous avons mesuré la vitesse d'écoulement du sang dans l'artère cérébrale moyenne (MCAv : un indice du CBF), le DO2 cérébral, la VE et la performance lors d'exercice incrémentaux jusqu'à épuisement sur cycloergomètre, ainsi que des contre-la-montres de 15 km en normoxie et en hypoxie sévère (11% O2, normobarique) ; avec ajout ou non de CO2 dans le mélange gazeux inspiré. Nous avons trouvé que MCAv était plus haute pendant l'exercice hypoxique, comparé à la normoxie alors que le DO2 cérébral était réduit. L'ajout de CO2 dans le gaz inspiré était efficace pour prévenir l'hypocapnie induite par l'hyperventilation, qui se développe à l'exercice intense, à la fois en normoxie et en hypoxie. Nous avons pu augmenter MCAv et le DO2 cérébral pendant l'exercice hypoxique, grâce à l'ajout de CO2. Cependant, nous avons augmenté la VE et la PaO2 (et probablement le travail respiratoire) à cause de l'augmentation du stimulus hypercapnique. Alors que nous avons, grâce à l'ajout de CO2, efficacement restauré le DO2 cérébral au cours de l'exercice en hypoxie à des valeurs obtenues en normoxie, nous n'avons observé aucune amélioration dans l'oxygénation du tissu cérébral ou de la performance. En conséquence, nos résultats ne soutiennent pas le rôle d'un DO2 cérébral réduit comme facteur limitant de la performance en hypoxie sévère.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les recherches visant à élucider les bases neurales de l'adolescence ont émergé au cours des années 1990 pour s'imposer cette dernière décennie. Il est aujourd'hui accepté dans le champ des neurosciences cognitives et du développement que le cerveau continue à se développer après la 10eme année de vie et qu'il atteint un stade de maturation similaire à l'adulte seulement vers 25 ans. La configuration structurelle et fonctionnelle du cerveau spécifique à la période de l'adolescence impliquerait un manque de contrôle émotionnel, favorisant des comportements dits de prise de risques qui à la fois permettent l'acquisition de l'indépendance et provoquent des situations de mise en danger du jeune individu et de son entourage. Ses mêmes comportements, dans leur acception négative - consommation d'alcool et de stupéfiants, conduite en état d'ivresse, rapports sexuels non-protégés, port d'arme, etc. - mobilisent les politiques de prévention et de santé publique relatives à l'adolescence et à la jeunesse. Cette thèse qui retrace l'histoire du cerveau adolescent de la fin des années 1950 à nos jours se situe à l'intersection de ces deux thèmes d'intérêt scientifique et public. A partir d'une perspective d'histoire culturelle et sociale des sciences, elle approche les éléments expérimentaux, institutionnels et contextuels qui ont contribué à la construction d'une adolescence définie par son immaturité cérébrale, associée à des comportements dits à risque. Plus précisément, elle met en évidence, sous l'angle privilégié du genre, selon quelles modalités et quelles temporalités l'histoire des recherches scientifiques sur le développement cérébral humain à l'adolescence et celle du façonnage d'un type d'adolescent-e impulsif/ve et preneur/euse de risques - c'est-à-dire potentiellement délinquant, dépendant, invalide ou malade chronique, constitué en problème de politique et de santé publique - sont amenées à converger. L'argument développé est que le genre et le sexe sont des catégories actives dans la construction d'un cerveau adolescent idéalement unisexe. En d'autres termes, bien que le cerveau adolescent qualifie des individus en regard de leur âge, sans distinction apparente de sexe et de genre, les conditions de sa production et les critères de sa définition sont constitutivement genrés, notamment par des comportements à risque qui concernent une majorité de garçons. Il s'agit d'analyser comment du sexe et du genre peuvent produire de l'âge, a priori unisexe, et d'interroger les enjeux scientifiques, sociaux et politiques qui participent de cette invisibilisation des catégories de sexe et de genre. Le but est de considérer la manière dont l'adolescence cérébrale reconfigure la gestion des questions liées à l'adolescence et à la jeunesse, en termes de problèmes sanitaires et de délinquance, mais aussi en termes de reproduction des normes sociales, de ce qu'implique devenir un homme ou une femme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract The object of game theory lies in the analysis of situations where different social actors have conflicting requirements and where their individual decisions will all influence the global outcome. In this framework, several games have been invented to capture the essence of various dilemmas encountered in many common important socio-economic situations. Even though these games often succeed in helping us understand human or animal behavior in interactive settings, some experiments have shown that people tend to cooperate with each other in situations for which classical game theory strongly recommends them to do the exact opposite. Several mechanisms have been invoked to try to explain the emergence of this unexpected cooperative attitude. Among them, repeated interaction, reputation, and belonging to a recognizable group have often been mentioned. However, the work of Nowak and May (1992) showed that the simple fact of arranging the players according to a spatial structure and only allowing them to interact with their immediate neighbors is sufficient to sustain a certain amount of cooperation even when the game is played anonymously and without repetition. Nowak and May's study and much of the following work was based on regular structures such as two-dimensional grids. Axelrod et al. (2002) showed that by randomizing the choice of neighbors, i.e. by actually giving up a strictly local geographical structure, cooperation can still emerge, provided that the interaction patterns remain stable in time. This is a first step towards a social network structure. However, following pioneering work by sociologists in the sixties such as that of Milgram (1967), in the last few years it has become apparent that many social and biological interaction networks, and even some technological networks, have particular, and partly unexpected, properties that set them apart from regular or random graphs. Among other things, they usually display broad degree distributions, and show small-world topological structure. Roughly speaking, a small-world graph is a network where any individual is relatively close, in terms of social ties, to any other individual, a property also found in random graphs but not in regular lattices. However, in contrast with random graphs, small-world networks also have a certain amount of local structure, as measured, for instance, by a quantity called the clustering coefficient. In the same vein, many real conflicting situations in economy and sociology are not well described neither by a fixed geographical position of the individuals in a regular lattice, nor by a random graph. Furthermore, it is a known fact that network structure can highly influence dynamical phenomena such as the way diseases spread across a population and ideas or information get transmitted. Therefore, in the last decade, research attention has naturally shifted from random and regular graphs towards better models of social interaction structures. The primary goal of this work is to discover whether or not the underlying graph structure of real social networks could give explanations as to why one finds higher levels of cooperation in populations of human beings or animals than what is prescribed by classical game theory. To meet this objective, I start by thoroughly studying a real scientific coauthorship network and showing how it differs from biological or technological networks using divers statistical measurements. Furthermore, I extract and describe its community structure taking into account the intensity of a collaboration. Finally, I investigate the temporal evolution of the network, from its inception to its state at the time of the study in 2006, suggesting also an effective view of it as opposed to a historical one. Thereafter, I combine evolutionary game theory with several network models along with the studied coauthorship network in order to highlight which specific network properties foster cooperation and shed some light on the various mechanisms responsible for the maintenance of this same cooperation. I point out the fact that, to resist defection, cooperators take advantage, whenever possible, of the degree-heterogeneity of social networks and their underlying community structure. Finally, I show that cooperation level and stability depend not only on the game played, but also on the evolutionary dynamic rules used and the individual payoff calculations. Synopsis Le but de la théorie des jeux réside dans l'analyse de situations dans lesquelles différents acteurs sociaux, avec des objectifs souvent conflictuels, doivent individuellement prendre des décisions qui influenceront toutes le résultat global. Dans ce cadre, plusieurs jeux ont été inventés afin de saisir l'essence de divers dilemmes rencontrés dans d'importantes situations socio-économiques. Bien que ces jeux nous permettent souvent de comprendre le comportement d'êtres humains ou d'animaux en interactions, des expériences ont montré que les individus ont parfois tendance à coopérer dans des situations pour lesquelles la théorie classique des jeux prescrit de faire le contraire. Plusieurs mécanismes ont été invoqués pour tenter d'expliquer l'émergence de ce comportement coopératif inattendu. Parmi ceux-ci, la répétition des interactions, la réputation ou encore l'appartenance à des groupes reconnaissables ont souvent été mentionnés. Toutefois, les travaux de Nowak et May (1992) ont montré que le simple fait de disposer les joueurs selon une structure spatiale en leur permettant d'interagir uniquement avec leurs voisins directs est suffisant pour maintenir un certain niveau de coopération même si le jeu est joué de manière anonyme et sans répétitions. L'étude de Nowak et May, ainsi qu'un nombre substantiel de travaux qui ont suivi, étaient basés sur des structures régulières telles que des grilles à deux dimensions. Axelrod et al. (2002) ont montré qu'en randomisant le choix des voisins, i.e. en abandonnant une localisation géographique stricte, la coopération peut malgré tout émerger, pour autant que les schémas d'interactions restent stables au cours du temps. Ceci est un premier pas en direction d'une structure de réseau social. Toutefois, suite aux travaux précurseurs de sociologues des années soixante, tels que ceux de Milgram (1967), il est devenu clair ces dernières années qu'une grande partie des réseaux d'interactions sociaux et biologiques, et même quelques réseaux technologiques, possèdent des propriétés particulières, et partiellement inattendues, qui les distinguent de graphes réguliers ou aléatoires. Entre autres, ils affichent en général une distribution du degré relativement large ainsi qu'une structure de "petit-monde". Grossièrement parlant, un graphe "petit-monde" est un réseau où tout individu se trouve relativement près de tout autre individu en termes de distance sociale, une propriété également présente dans les graphes aléatoires mais absente des grilles régulières. Par contre, les réseaux "petit-monde" ont, contrairement aux graphes aléatoires, une certaine structure de localité, mesurée par exemple par une quantité appelée le "coefficient de clustering". Dans le même esprit, plusieurs situations réelles de conflit en économie et sociologie ne sont pas bien décrites ni par des positions géographiquement fixes des individus en grilles régulières, ni par des graphes aléatoires. De plus, il est bien connu que la structure même d'un réseau peut passablement influencer des phénomènes dynamiques tels que la manière qu'a une maladie de se répandre à travers une population, ou encore la façon dont des idées ou une information s'y propagent. Ainsi, durant cette dernière décennie, l'attention de la recherche s'est tout naturellement déplacée des graphes aléatoires et réguliers vers de meilleurs modèles de structure d'interactions sociales. L'objectif principal de ce travail est de découvrir si la structure sous-jacente de graphe de vrais réseaux sociaux peut fournir des explications quant aux raisons pour lesquelles on trouve, chez certains groupes d'êtres humains ou d'animaux, des niveaux de coopération supérieurs à ce qui est prescrit par la théorie classique des jeux. Dans l'optique d'atteindre ce but, je commence par étudier un véritable réseau de collaborations scientifiques et, en utilisant diverses mesures statistiques, je mets en évidence la manière dont il diffère de réseaux biologiques ou technologiques. De plus, j'extrais et je décris sa structure de communautés en tenant compte de l'intensité d'une collaboration. Finalement, j'examine l'évolution temporelle du réseau depuis son origine jusqu'à son état en 2006, date à laquelle l'étude a été effectuée, en suggérant également une vue effective du réseau par opposition à une vue historique. Par la suite, je combine la théorie évolutionnaire des jeux avec des réseaux comprenant plusieurs modèles et le réseau de collaboration susmentionné, afin de déterminer les propriétés structurelles utiles à la promotion de la coopération et les mécanismes responsables du maintien de celle-ci. Je mets en évidence le fait que, pour ne pas succomber à la défection, les coopérateurs exploitent dans la mesure du possible l'hétérogénéité des réseaux sociaux en termes de degré ainsi que la structure de communautés sous-jacente de ces mêmes réseaux. Finalement, je montre que le niveau de coopération et sa stabilité dépendent non seulement du jeu joué, mais aussi des règles de la dynamique évolutionnaire utilisées et du calcul du bénéfice d'un individu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé II y a cinq ans, la découverte d'un nouveau domaine, le PYD domaine, lié aux domaines de la mort, a permis la description de la nouvelle famille des NALP protéines. L'analyse structurelle de cette famille de protéines révéla la présence de deux autres domaines, impliqués dans l'oligomerisation, NACHT, et la détection des ligands, Leucine rich repeats ou LRR. Cette architecture protéique est homologue à celle qui est décrite pour les NODs, les Tol1 récepteurs et tes protéines de résistance chez les plantes. Cette homologie suggère une possible implication des NALPs dans la régulation de l'immunité innée. Premièrement, nous avons décrit les composants minimaux qui permettent à l'inflammasomeNALP3 d'activer la caspase pro-inflammatoire, caspase-1. En comparaison à NALP1, NALP3 ne contient pas de FIIND domaine, ni de CARD domaine en C-terminus et n'interagit pas avec caspase-5. Nous avons découvert une protéine très homologue au C-terminus de NALP1, Cardinal, qui se lie au NACHT domaine de NALP2 et NALP3 par l'intermédiaire de son FIIND domaine. Cardinal possède la capacité d'interagir avec caspase-l, mais seul ASC semble être nécessaire à la maturation de la prointerleukine-1β suite à la stimulation de NALP3. Deuxièmement, notre étude s'est concentrée sur la nature du stimulus capable d'induire la formation et l'activation de l'inflammasome-NALP3. Nous avons démontré que l'ajout de muramyl dipeptide (MDP), produit à partir de la digestion enzymatique de peptidoglycaris bactériens, induit à la fois l'expression de la proIL-1β par la voie NOD2 et sa maturation en IL-1β active par la voie NALP3. Bien que le MDP active l'inflammasome-NALP3, il est incapable d'induire la sécrétion de l'IL-1β mature dans la lignée cellulaire THP1, comparé aux monocytes primaires humains. Cette différence pourrait être liée à l'absence, dans les THP1, de la protéine Filamin, qui est proposée d'interagir avec Cardinal. L'implication de NALP3 dans la maturation de l'IL-lb est confirmée suite à la découverte de mutations sur le gène CIAS1/NALP3/cryopyrin associées à trois maladies auto-inflammatoires : le syndrome de Muckle-Wells (MWS), l'urticaire familial au froid (FCU) et le syndrome CINCA/NOMID. Une élévation constitutive de la maturation et de la sécrétion de la proIL-1β en absence de stimulation MDP est détectée dans les macrophages des patients Muckle-Wells. En conclusion, nos études ont démontré que l'inflammasome-NALP3 doit être finement régulé pour éviter une activité incontrôlée qui représente la base moléculaire des symptômes associés aux syndromes auto-inflammatoires liés à NALP3. Summary Five years ago, the description of the NALP family originated from the discovery of a new death-domain fold family, the PYD domain. NALP contains aprotein-protein interaction domain (PYD), an oligomerization domain (NACHT) and a ligand-sensing domain, leucine rich repeats or LRR. This protein architecture shares similarity with receptors involved in immunity, such as NODS, Toll receptors (TLRs) and related plant resistance proteins, and points to an important role of NALPs in defense mechanisms. We first described the minimal complex involved in the pro-inflammatory Interleukin-1beta (IL-1β) cytokine maturation, called the inflammasome, which contains NALP3. In contrast to NALP1, NALP3, like other members of the NALP family, is devoid of C-terminal FIIND and CARD domains and does not interact with the pro-inflammatory caspase-5. Interestingly, a homolog of the C-terminal portion of NALP1 was found in the human genome and was named Cardinal. We found that NALP2 and NALP3 interact with the CARD-containing proteins Cardinal. Cardinal is able to bind to caspase-1 but is not required for IL-1β maturation through NALP3 activation, as demonstrated for the adaptor ASC. Secondly, our study focused on the stimuli involved in the activation of the NALP3 inflammasome. MDP was shown to induce the expression of proIL1β through NOD2 and then the maturation into active IL-1β by activation of the NALP3 inflammasome. However, in the monocytic THP1 cell line, secretion of IL-1β upon MDP stimulation seems to be independent of the inflammasome activation compared to human primary monocytes. This difference might be linked to a Cardinal-interacting protein, filamin. Until now, the role of Cardinal and filamin is still unknown and remains to be elucidated. Finally, mutations in the NALP3/cryopyrin/CIAS1 gene are associated with three autoinflammatory diseases: Muckle-Wells syndrome, familial cold autoinflammatory syndrome, and CINCA. Constitutive, elevated IL-1β maturation and secretion, even in the absence of MDP stimulation, was observed in macrophages from Muckle-Wells patients and confirmed a key role for the NALP3 inflammasome in innate immunity In conclusion, our studies describes the formation of the NALP3 inflammasome and suggests that this complex has to be tightly regulated to avoid an increased deregulated inflammasome activity that is the molecular basis for the symptoms associated with NALP3-dependent autoinflammatory disorders.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The activation of the specific immune response against tumor cells is based on the recognition by the CD8+ Cytotoxic Τ Lymphocytes (CTL), of antigenic peptides (p) presented at the surface of the cell by the class I major histocompatibility complex (MHC). The ability of the so-called T-Cell Receptors (TCR) to discriminate between self and non-self peptides constitutes the most important specific control mechanism against infected cells. The TCR/pMHC interaction has been the subject of much attention in cancer therapy since the design of the adoptive transfer approach, in which Τ lymphocytes presenting an interesting response against tumor cells are extracted from the patient, expanded in vitro, and reinfused after immunodepletion, possibly leading to cancer regression. In the last decade, major progress has been achieved by the introduction of engineered lypmhocytes. In the meantime, the understanding of the molecular aspects of the TCRpMHC interaction has become essential to guide in vitro and in vivo studies. In 1996, the determination of the first structure of a TCRpMHC complex by X-ray crystallography revealed the molecular basis of the interaction. Since then, molecular modeling techniques have taken advantage of crystal structures to study the conformational space of the complex, and understand the specificity of the recognition of the pMHC by the TCR. In the meantime, experimental techniques used to determine the sequences of TCR that bind to a pMHC complex have been used intensively, leading to the collection of large repertoires of TCR sequences that are specific for a given pMHC. There is a growing need for computational approaches capable of predicting the molecular interactions that occur upon TCR/pMHC binding without relying on the time consuming resolution of a crystal structure. This work presents new approaches to analyze the molecular principles that govern the recognition of the pMHC by the TCR and the subsequent activation of the T-cell. We first introduce TCRep 3D, a new method to model and study the structural properties of TCR repertoires, based on homology and ab initio modeling. We discuss the methodology in details, and demonstrate that it outperforms state of the art modeling methods in predicting relevant TCR conformations. Two successful applications of TCRep 3D that supported experimental studies on TCR repertoires are presented. Second, we present a rigid body study of TCRpMHC complexes that gives a fair insight on the TCR approach towards pMHC. We show that the binding mode of the TCR is correctly described by long-distance interactions. Finally, the last section is dedicated to a detailed analysis of an experimental hydrogen exchange study, which suggests that some regions of the constant domain of the TCR are subject to conformational changes upon binding to the pMHC. We propose a hypothesis of the structural signaling of TCR molecules leading to the activation of the T-cell. It is based on the analysis of correlated motions in the TCRpMHC structure. - L'activation de la réponse immunitaire spécifique dirigée contre les cellules tumorales est basée sur la reconnaissance par les Lymphocytes Τ Cytotoxiques (CTL), d'un peptide antigénique (p) présenté à la suface de la cellule par le complexe majeur d'histocompatibilité de classe I (MHC). La capacité des récepteurs des lymphocytes (TCR) à distinguer les peptides endogènes des peptides étrangers constitue le mécanisme de contrôle le plus important dirigé contre les cellules infectées. L'interaction entre le TCR et le pMHC est le sujet de beaucoup d'attention dans la thérapie du cancer, depuis la conception de la méthode de transfer adoptif: les lymphocytes capables d'une réponse importante contre les cellules tumorales sont extraits du patient, amplifiés in vitro, et réintroduits après immunosuppression. Il peut en résulter une régression du cancer. Ces dix dernières années, d'importants progrès ont été réalisés grâce à l'introduction de lymphocytes modifiés par génie génétique. En parallèle, la compréhension du TCRpMHC au niveau moléculaire est donc devenue essentielle pour soutenir les études in vitro et in vivo. En 1996, l'obtention de la première structure du complexe TCRpMHC à l'aide de la cristallographie par rayons X a révélé les bases moléculaires de l'interaction. Depuis lors, les techniques de modélisation moléculaire ont exploité les structures expérimentales pour comprendre la spécificité de la reconnaissance du pMHC par le TCR. Dans le même temps, de nouvelles techniques expérimentales permettant de déterminer la séquence de TCR spécifiques envers un pMHC donné, ont été largement exploitées. Ainsi, d'importants répertoires de TCR sont devenus disponibles, et il est plus que jamais nécessaire de développer des approches informatiques capables de prédire les interactions moléculaires qui ont lieu lors de la liaison du TCR au pMHC, et ce sans dépendre systématiquement de la résolution d'une structure cristalline. Ce mémoire présente une nouvelle approche pour analyser les principes moléculaires régissant la reconnaissance du pMHC par le TCR, et l'activation du lymphocyte qui en résulte. Dans un premier temps, nous présentons TCRep 3D, une nouvelle méthode basée sur les modélisations par homologie et ab initio, pour l'étude de propriétés structurales des répertoires de TCR. Le procédé est discuté en détails et comparé à des approches standard. Nous démontrons ainsi que TCRep 3D est le plus performant pour prédire des conformations pertinentes du TCR. Deux applications à des études expérimentales des répertoires TCR sont ensuite présentées. Dans la seconde partie de ce travail nous présentons une étude de complexes TCRpMHC qui donne un aperçu intéressant du mécanisme d'approche du pMHC par le TCR. Finalement, la dernière section se concentre sur l'analyse détaillée d'une étude expérimentale basée sur les échanges deuterium/hydrogène, dont les résultats révèlent que certaines régions clés du domaine constant du TCR sont sujettes à un changement conformationnel lors de la liaison au pMHC. Nous proposons une hypothèse pour la signalisation structurelle des TCR, menant à l'activation du lymphocyte. Celle-ci est basée sur l'analyse des mouvements corrélés observés dans la structure du TCRpMHC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : La société sénégalaise traverse une crise profonde qui touche tous les secteurs de la vie. Cette crise à la fois structurelle et conjoncturelle crée à son tour une sorte de société de la crise qui touche les populations les plus vulnérables. Le phénomène des enfants de la rue est l'expression parfaite de cette société de la crise. Le rythme dans lequel il se développe est la traduction de la dynamique d'exclusion qui sévit en milieu urbain sénégalais en général et dans la région de Dakar en particulier. Dans cette région, l'urbanisation s'est accompagnée de la montée des inégalités qui placent la société dans une sorte de dualisation entre centre et périphérie. A la ville de Dakar qui s'est constituée selon les normes de la planification urbaine, s'oppose les principales banlieues de Pikine, Guédiawaye et Rufisque qui offrent le visage de marges sociales urbaines. D'une certaine manière, la montée des inégalités remet en cause les politiques sociales, de la bonne gouvernance et de la redistribution des richesses. Ces banlieues constituent les principaux milieux d'accueil de la masse de migrants ruraux qui fuient la misère des villages. D'une part, l'hétérogénéité sociale de ces banlieues ne favorise pas l'émergence d'une conscience collective fondée sur l'appartenance à un fonds historique commun. Par contre, elle renforce l'anonymat et l'indifférence propres à la ville. D'autre part, les difficultés économiques et la précarité des conditions de vie conjuguées à l'explosion démographique et ses conséquences affaiblissent les systèmes de solidarité entraînant ainsi la montée de l'individualisme et la philosophie du chacun pour soi. Ce qui met en cause l'éducation des enfants qui devient difficile pour les parents d'assumer. En outre, la place importante accordée à l'imaginaire social dans la société sénégalaise explique le recours aux forces surnaturelles par l'intercession des marabouts, sorciers, devins, etc. D'autre part, la place accordée aux offrandes et aux sacrifices de même que le "besoin de donner" alimente et pérennise la pratique de la mendicité en général et celle des enfants en particulier. En outre, l'instrumentalisation de la mendicité par certains marabouts qui se traduit par une sorte de "business talibé" ou de "marché de l'aumône", rapproche les enfants de l'univers de là rue qui devient pour eux une sorte d'échappatoire face aux conditions de vie que leur imposent ces marabouts. Ainsi, pour eux, la rue remplit une fonction de socialisation. En effet, dans cet univers social, les enfants se forgent une personnalité, développent des compétences et des activités qui leur permettent de survivre, créent des repères et des codes collectifs qui leur permettent de mener une existence que la société assimile strictement à la déviance. Mots clé : crise, école, éducation, enfants de la rue, exclusion, inégalités, migration, pauvreté, socialisation, stratégies de survie, uibanisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME Dès le printemps 2004, la construction d'une 2ème ligne de métro est entreprise dans la ville de Lausanne en Suisse. En reliant Ouchy, au bord du lac Léman (alt. 373 m) à Epalinges (alt. 711 m), le nouveau métro "M2" traversera dès 2008 l'agglomération lausannoise du Sud au Nord sur une distance de 6 km. Depuis l'avant-projet, en 1999, une grande quantité de données géologiques a été récolté et de nombreux forages exécutés sur le site. Ceci nous a donné une occasion unique d'entreprendre une étude de microgravimétrique urbaine de détail. Le mode de creusement du tunnel dépend fortement des matériaux à excaver et il est classiquement du domaine du géologue, avec ses connaissances de la géologie régionale et de la stratigraphie des forages, de fournir à l'ingénieur un modèle géologique. Ce modèle indiquera dans ce cas l'épaisseur des terrains meubles qui recouvrent le soubassement rocheux. La représentativité spatiale d'une information très localisée, comme celle d'un forage, est d'autant plus compliquée que le détail recherché est petit. C'est à ce moment là que la prospection géophysique, plus spécialement gravimétrique, peut apporter des informations complémentaires déterminantes pour régionaliser les données ponctuelles des forages. La microgravimétrie en milieu urbain implique de corriger avec soin les perturbations gravifiques sur la mesure de la pesanteur dues aux effets de la topographie, des bâtiments et des caves afin d'isoler l'effet gravifique dû exclusivement à l'épaisseur du remplissage des terrains meubles. Tenant compte de l'intensité des corrections topographiques en milieu urbain, nous avons donné une grande importance aux sous-sols, leurs effets gravifiques pouvant atteindre l'ordre du dixième de mGal. Nous avons donc intégré ces corrections celle de topographie et traité les effets des bâtiments de manière indépendante. Nous avons inclus dans le modèle numérique de terrain (MNT) la chaussée et les sous-sols afin de construire un modèle numérique de terrain urbain. Nous utiliserons un nouvel acronyme « MNTU »pour décrire ce modèle. Nous proposons d'établir des cartes de corrections topographiques préalables, basées sur les données à disposition fournies par le cadastre en faisant des hypothèses sur la profondeur des sous-sols et la hauteur des bâtiments. Les deux zones de test choisies sont caractéristiques des différents types d'urbanisation présente à Lausanne et se révèlent par conséquent très intéressantes pour élaborer une méthodologie globale de la microgravimétrie urbaine. Le but était d'évaluer l'épaisseur du remplissage morainique sur un fond rocheux molassique se situant à une profondeur variable de quelques mètres à une trentaine de mètres et d'en établir une coupe dans l'axe du futur tracé du métro. Les résultats des modélisations se sont révélés très convaincants en détectant des zones qui diffèrent sensiblement du modèle géologique d'avant projet. Nous avons également démontré que l'application de cette méthode géophysique, non destructive, est à même de limiter le nombre de sondages mécaniques lors de l'avant-projet et du projet définitif, ce qui peut limiter à la fois les coûts et le dérangement engendré par ces travaux de surface. L'adaptabilité de la technique gravimétrique permet d'intervenir dans toutes les différentes phases d'un projet de génie civil comme celui de la construction d'un métro en souterrain. KURZFASSUNG Seit dem Frühling 2004 ist in der Stadt Lausanne (Schweiz) die neue U-Bahn "M2" in Konstruktion. Diese soll auf 6 km Länge die Lausanner Agglomeration von Süd nach Nord durchqueren. Die dem Projekt zu Grunde liegende technische Planung sieht vor, daß die Bahnlinie hauptsächlich in der Molasse angesiedelt sein wird. Seit dem Vorentwurf (1999) ist eine große Anzahl geologischer Angaben gesammelt worden. Daraus ergab sich die einmalige Gelegenheit, die Informationen aus den damit verbundenen zahlreichen Bohrungen zu einer detaillierten mikrogravimetrischen Studie der Stadt Lausanne zu erweitern und zu vervollständigen. Das Ziel bestand darin, die Mächtigkeit der die Molasseüberdeckenden Moräneablagerung abzuschätzen, um eine entsprechendes geologisches Profile entlang der künftigen Bahnlinie zu erstellen. Weiterhin sollte gezeigt werden, daß die Anwendung dieser nicht-invasiven geophysikalischen Methode es ermöglicht, die Anzahl der benötigten Bohrungen sowohl in der Pilotphase wie auch im endgültigen Projekt zu reduzieren, was zu wesentlichen finanziellen Einsparungen in der Ausführung des Werkes beitragen würde. Die beiden in dieser Studie bearbeiteten Testzonen befinden sich im Nordteil und im Stadtzentrum von Lausanne und sind durch eine unterschiedliche Urbanisierung charakterisiert. Das anstehende Gestein liegt in verschiedenen Tiefen: von einigen Metern bis zu etwa dreißig Metern. Diese Zonen weisen alle Schwierigkeiten einer urbanen Bebauung mit hoher Verkehrsdichte auf und waren daher massgebend bei der Ausarbeitung einer globalen mikrogravimetrischen Methodologie für die Stadt Lausanne. Die so entwickelte Technik ermöglicht, die störenden Auswirkungen der Topographie, der Gebäude, der Keller und der Öffentlichen Infrastrukturen sorgfältig zu korrigieren, um so die ausschließlich auf die Mächtigkeit des Lockergesteins zurückzuführenden Effekte zu isolieren. In Bezug auf die Intensität der Auswirkungen der topographischen Korrekturen im Stadtgebiet wurde den Untergeschossen eine besonders grosse Bedeutung zugemessen da die entsprechenden Schwerkrafteffekte eine Grösse von rund einem Zehntel mGal erreichen können. Wir schlagen deshalb vor, vorläufige Karten der topographischen Korrekturen zu erstellen. Diese Korrekturen basieren auf den uns vom Katasterplan gelieferten Daten und einigen Hypothesen bezüglich der Tiefe der Untergeschosse und der Höhe der Gebäude. Die Verfügbarkeit einer derartigen Karte vor der eigentlichen gravimetrischen Messkampagne würde uns erlauben, die Position der Meßstationen besser zu wählen. Wir sahen zudem, daß ein entsprechenden a priori Filter benutzt werden kann, wenn die Form und die Intensität der Anomalie offensichtlich dem entsprechenden Gebäude zugeordnet werden können. Diese Strategie muß jedoch mit Vorsicht angewandt werden, denn falls weitere Anomalien dazukommen, können bedeutende Verschiebungen durch Übèrlagerungen der Schwerewirkung verschiedener Strukturen entstehen. Die Ergebnisse der Modellierung haben sich als sehr überzeugend erwiesen, da sie im Voraus unbekannte sensible Zonen korrekt identifiziert haben. Die Anwendbarkeit der in dieser Arbeit entwickelten gravimetrischen Technik ermöglicht es, während allen Phasen eines Grossbauprojekts, wie zum Beispiel bei der Konstruktion einer unterirdischen U-Bahn, einzugreifen. ABSTRACT Since Spring of 2004 a new metro line has been under construction in the city of Lausanne in Switzerland. The new line, the M2, will be 6 km long and will traverse the city from south to north. The civil engineering project determined that the line would be located primarily in the Molasse. Since the preparatory project in 1999, a great quantity of geological data has been collected, and the many drillings made on the site have proved to be a unique opportunity to undertake a study of urban microgravimetry. The goal was to evaluate the thickness of the morainic filling over the molassic bedrock, and to establish a section along the axis of the future line. It then had to be shown that the application of this nondestructive geophysical method could reduce the number of mechanical surveys required both for a preparatory and a definitive project, which would lead to real savings in the realization of a civil engineering project. The two test zones chosen, one in the northern part of the city and one in the city centre, are characterised by various types of urbanisation. Bedrock is at a depth varying from a few metres to about thirty metres. These zones well exemplify the various difficulties encountered in an urban environment and are therefore very interesting for the development of an overall methodology of urban microgravimetry. Microgravimetry in an urban environment requires careful corrections for gravific disturbances due to the effects of topography, buildings, cellars, and the infrastructure of distribution networks, in order to isolate the gravific effect due exclusively to the thickness of loose soil filling. Bearing in mind the intensity of the topographic corrections in an urban environment, we gave particular importance to basements. Their gravific effects can reach the order of one tenth of one meal, and can influence above all the precision of the Bouguer anomaly. We propose to establish preliminary topographic correction charts based on data provided to us by the land register, by making assumptions on the depths of basements and the heights of buildings. Availability of this chart previous to a gravimetry campaign would enable us to choose optimum measuring sites. We have also seen that an a priori filter can be used when the form and the intensity of the anomaly correspond visually to the corresponding building. This strategy must be used with caution because if other anomalies are to be associated, important shifts can be generated by the superposition of the effects of different structures. The results of the model have proved to be very convincing in detecting previously unknown sensitive zones. The adaptability of the gravimetry technique allows for application in all phases of a civil engineering project such as the construction of an underground metro line. RIASSUNTO Dalla primavera 2004 una nuova linea metropolitana é in costruzione nella città di Losanna in Svizzera. La nuova metropolitana "M2" traverserà per la lunghezza di 6 km il centro urbano di Losanna da sud a nord. II progetto d'ingegneria civile prevedeva un tracciato situato essenzialmente nel fondo roccioso arenaceo terziario (molassa). Dalla redazione del progetto preliminare, avvenuta nel 1999, una grande quantità di dati geologici sono stati raccolti e sono stati eseguiti numerosi sondaggi. Questo sì é presentato come un'occasione unica per mettere a punto uno studio microgravimetrico in ambiente urbano con lo scopo di valutare lo spessore dei terreni sciolti di origine glaciale che ricoprono il fondo roccioso di molassa e di mettere in evidenza come l'applicazione di questo metodo geofisico non distruttivo possa limitare il numero di sondaggi meccanici nella fase di progetto preliminare ed esecutivo con conseguente reale risparmio economico nella realizzazione di una tale opera. Le due zone di test sono situate una nella zona nord e la seconda nel centro storico di Losanna e sono caratterizzate da stili architettonici differenti. II fondo roccioso é situato ad una profondità variabile da qualche metro ad una trentina. Queste due zone sembrano ben rappresentare tutte le difficoltà di un ambiente urbano e ben si prestano per elaborare una metodologia globale per la microgravimetria in ambiente urbano. L'applicazione di questa tecnica nell'ambiente suddetto implica la correzione attenta delle perturbazioni sulla misura dell'accelerazione gravitazionale, causate dalla topografia, gli edifici, le cantine e le infrastrutture dei sottoservizi, per ben isolare il segnale esclusivamente causato dallo spessore dei terreni sciolti. Tenuto conto, dell'intensità delle correzioni topografiche, abbiamo dato grande importanza alle cantine, poiché il loro effetto sulle misure può raggiungere il decimo di mGal. Proponiamo quindi di redigere una carta delle correzioni topografiche preliminare all'acquisizione, facendo delle ipotesi sulla profondità delle cantine e sull'altezza degli edifici, sulla base delle planimetrie catastali. L'analisi di questa carta permetterà di scegliere le posizioni più adatte per le stazioni gravimetriche. Abbiamo anche osservato che un filtro a priori, qualora la forma e l'intensità dell'anomalia fosse facilmente riconducibile in maniera visuale ad un edificio, possa essere efficace. Tuttavia questa strategia deve essere utilizzata con precauzione, poiché può introdurre uno scarto, qualora più anomalie, dovute a differenti strutture, si sovrappongano. I risultati delle modellizzazioni si sono rivelati convincenti, evidenziando zone sensibili non conosciute preventivamente. L'adattabilità della tecnica gravimetrica ha mostrato di poter intervenire in differenti fasi di un progetto di ingegneria civile, quale è quella di un'opera in sotterraneo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction :¦Le syndrome de Brugada (SB) se définit par une élévation du segment ST dans les dérivations précordiales droites (V1-V3) associée à une incidence élevée de mort subite par arythmies chez des patients sans cardiopathie structurelle. La prévention de la mort subite repose sur la pose d'un défibrillateur automatique implantable (DAI).¦Matériel et méthode :¦Cette étude est une analyse rétrospective de tous les patients avec SB implantés d'un DAI au CHUV entre 1998 et 2010. Le profil des patients, les complications, ainsi que les thérapies appropriées et inappropriées délivrées par le défibrillateur ont été évaluées. Une thérapie appropriée est définie par l'action appropriée du DAI (choc ou stimulation anti-tachycardie = ATP) en réponse à une TV ou une FV correctement détectée. La thérapie inappropriée est définie comme une thérapie délivrée par l'appareil en l'absence d'une arythmie ventriculaire.¦Résultats :¦Durant la période étudiée (01.01.1998 - 31.12.2010) nous avons collecté au total 23 patients soit 19 hommes (83%) et 4 femmes (17%) âgés de 12 à 60 ans (41 13 ans). Le rapport hommes/femmes est de 4.75. Le suivi quant à lui porte sur 21 patients: un patient, après échec de primo-implantation au CHUV, a été implanté d'un défibrillateur dans un autre canton et un second patient a été perdu de vue entre l'implantation et le premier contrôle prévu. Le suivi moyen des 21 patients restants est de 8432 mois (37-149 mois, médiane : 78 mois). Il y a eu au total 45 thérapies délivrées : 12 appropriées (8 chocs; 4 ATP) et 33 inappropriées. 18% des patients ont eu ≥ 1 thérapie appropriée alors que 43% ont eu ≥ 1 choc inapproprié. 14 des 23 patients (61%) ont eu ≥ 1 complication (9 avec chocs inappropriés, 7 avec complications opératoires après primo-implantations ou ré-interventions, 6 avec dysfonction de sonde ventriculaire et 1 avec explantation).¦Conclusion :¦Le profil de ce petit collectif de patients avec SB implantés d'un DAI au CHUV est comparable à celui décrit dans la littérature. Durant un suivi moyen de 7 ans après la primo-implantation, l'incidence d'arythmies ventriculaires malignes est faible, avec un taux annuel de 2.6%. Le taux de complication est quant à lui élevé (8.7%/an). Près des trois-quarts des thérapies délivrées par le DAI sont inappropriées et les patients avec thérapies inappropriées sont 2.4x plus fréquents que les patients avec thérapies appropriées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs 1) Caractériser une famille avec PEPD aux plans clinique, généalogique et génétique. 2) Identifier la cause génétique de la maladie dans cette famille, et en démontrer la pathogénicité. Introduction Le "Paroxysmal Extreme Pain Disorder " (PEPD) est une maladie génétique de transmission autosomique dominante caractérisée par des douleurs paroxystiques rectales, oculaires, maxillaires ou dans les membres inférieurs, qui peuvent être accompagnées d'un érythème. Les épisodes sont déclenchés par le contact cutané, les traumatismes mineurs et l'exposition au chaud. Leur intensité est telle qu'elle en est invalidante. PEPD est causé par des mutations du gène SCN9A, qui code pour la sous-unité alpha du canal sodique Nav1.7. Ce canal est distribué dans des cellules nerveuses périphériques appelées "nocicepteurs" qui sont impliquées dans la transmission du signal lié à la douleur. Méthode et Résultats Résultats Cliniques La partie clinique s'est déroulée à l'aide d'interviews structurées par visite directe, entretiens téléphoniques ou par correspondance. L'anamnèse, les données généalogiques et l'examen clinique ont été étudiés de façon extensive et tabulée. Résultats Génétiques Suite à l'identification de la mutation, un génotypage a été effectué à l'aide de techniques standards, afin de démontrer la co-ségrégation de la mutation avec la maladie. En outre, un groupe contrôle de 92 sujets suisses sans maladie connue ont été génotypés pour exclure la possibilité d'un polymorphisme rare. Grâce aux techniques de PCR et de séquençage, nous avons pu démontrer la présence d'une nouvelle mutation hétérozygote dans l'exon 27 du gène SCN9A, ce dernier étant impliqué dans plusieurs maladies dont PEPD. Cette mutation est codante, et conduit à un changement d'acide aminé dans le canal sodique Nav1.7 (mutation p.L1612P). Conclusions L'étude démontre la présence d'une nouvelle mutation du gène SCN9A permettant d'expliquer les symptômes décrits dans la famille investiguée. En effet, le groupe contrôle et tous les individus non symptomatiques de la famille n'ont pas la mutation, ce qui soutient fortement sa pathogénicité. En outre, il s'agit d'une mutation codante non-synonyme, localisée à proximité d'autres mutations causales précédemment étudiées au plan électrophysiologique.