175 resultados para Mesures de seguretat


Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMEDurant la phase de récupération d'un exercice de course à pied d'intensité maximale ou submaximale, une augmentation de la pression artérielle systolique centrale (aortique) résultant de la réflexion des ondes de pouls sur l'arbre vasculaire est constatée chez l'individu en bonne santé. En diastole cependant, l'impact de la réflexion de ces ondes de pouls sur la pression centrale demeure inconnu durant la récupération d'un exercice.Nous avons évalué les ondes de pouls centrales systolique et diastolique chez onze athlètes d'endurance durant la phase de récupération d'un exercice de course à pied dans des conditions d'effort maximal (sur tapis de course) et lors d'un effort submaximal lors d'une course à pied de 4000 mètres en plein air sur terrain mixte.Pour chaque sujet et lors des deux exercices, l'onde de pouls a été mesurée au niveau radial par tonométrie d'aplanation durant une phase de repos précédant l'exercice, puis à 5, 15, 25, 35 et 45 minutes après la fin de l'exercice. En utilisant une fonction mathématique de transfert, l'onde de pouls centrale a été extrapolée à partir de l'onde de pouls radiale. En compilant la forme de l'onde de pouls centrale avec une mesure simultanée de la pression artérielle brachiale, un index d'augmentation de l'onde de pouls en systole (Alx) et en diastole (Als) peut être calculé, reflétant l'augmentation des pressions résultant de la réflexion des ondes sur l'arbre vasculaire périphérique.A 5 minutes de la fin de l'exercice, les deux index ont été mesurés moindres que ceux mesurés lors de la phase précédant celui-ci. Lors des mesures suivantes, Alx est resté bas, alors que Aid a progressivement augmenté pour finalement dépasser la valeur de repos après 45 minutes de récupération. Le même phénomène a été constaté pour les deux modalités d'exercice (maximal ou submaximal). Ainsi, au-dede quelques minutes de récupération après un exercice de course d'intensité maximale ou submaximale, nous avons montré par ces investigations que les ondes de pouls réfléchies en périphérie augmentent de façon sélective la pression centrale en diastole chez l'athlète d'endurance.ABSTRACTDuring recovery from a maximal or submaximal aerobic exercise, augmentation of central (aortic) systolic pressure by reflected pressure waves is blunted in healthy humans. However, the extent to which reflected pressure waves modify the central pulse in diastole in these conditions remains unknown. We evaluated systolic and diastolic central reflected waves in 11 endurance-trained athletes on recovery from a maximal running test on a treadmill (treadmill-max) and a 4000m run in field conditions. On both occasions in each subject, the radial pulse was recorded with applanation tonometry in the resting preexercise state and then 5, 15, 25, 35, and 45 minutes after exercise termination. From the central waveform, as reconstructed by application of a generalized transfer function, we computed a systolic (Alx) and a diastolic index (Aid) of pressure augmentation by reflections. At 5 minutes, both indices were below preexercise. At further time-points, Alx remained low, while Aid progressively increased, to overshoot above preexercise at 45 minutes. The same behavior was observed with both exercise types. Beyond the first few minutes of recovery following either maximal or submaximal aerobic exercise, reflected waves selectively augment the central pressure pulse in diastole, at least in endurance- trained athletes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction générale : 1 L'essor du contrat de franchise se situe dans un contexte de mutation économique ainsi que de développement en France des nouvelles techniques de la distribution au cours des années 1960. Le commerce indépendant, jusque-là prépondérant, a décliné au profit de la distribution intégrée qui tendait à canaliser les circuits de distribution afin d'agir notamment sur les prix. On assiste alors à l'émergence de la grande distribution (hypermarchés, supermarchés), aux côtés de nouvelles techniques d'intégration commerciale qu'on appelle commerce associé, dans lequel le distributeur est indépendant sur le plan juridique et dans sa gestion, et n'est pas contraint à une exclusivité de son approvisionnement. En parallèle, s'impose en France et un peu partout en Europe, la franchise dont l'esprit est proche du commerce associé, mais qui s'appuie sur le prestige et la réputation des marques connues du public, pour assurer la distribution des produits de la franchise dans des points de vente ayant une identité reconnaissable. La distribution par la franchise conservait aussi l'esprit du commerce de proximité, privilégiant l'idée de boutique plutôt que celle de grands magasins. Avec l'évolution de la franchise, on assiste aujourd'hui à une cohabitation entre grandes surfaces et petites boutiques, qui se côtoient sans antagonisme dans des grands ensembles commerciaux. La franchise est considérée par certains auteurs comme une figure fondamentale du commerce contemporaine. 2 Le succès de la franchise s'explique par les nombreuses qualités et avantages que beaucoup s'accordent à lui reconnaître. Harmonisant les techniques les plus modernes de vente, elle permet néanmoins une gestion à dimension humaine et surtout indépendante au franchisé. Elle encourage à la création d'une entreprise (petite ou moyenne) par des particuliers désireux d'exercer une activité indépendante, tout en leur assurant une certaine sécurité dans leur investissement du fait de la notoriété de la marque mais aussi de l'assistance et du conseil d'un franchiseur compétent dans son domaine. La franchise permet au franchisé sous l'enseigne d'une marque de renom, de proposer des produits répondant aux normes de qualité et de proposer la même garantie aux consommateurs, dans tous les points de vente de la marque franchisée. Quant au créateur de la franchise, le franchiseur, il peut assurer une diffusion nationale et internationale de ses produits sans consentir d'investissements financiers. 3 La franchise est le contrat par lequel le franchiseur concède le droit d'exploiter la franchise au franchisé ; elle est aussi la méthode commerciale par laquelle se réalise cette exploitation. Elle en désigne à la fois le cadre et le contenu. Le contrat de franchise permet ainsi de prévoir le cadre contractuel des partenaires pour l'exploitation de la méthode commerciale mise au point et expérimentée par le franchiseur. Ce contrat est né de la pratique, et évolue dans un cadre juridique souple et hétérogène composé de règles venant à la fois du droit commun, du droit de la distribution et du droit de la concurrence interne et communautaire. Cette originalité lui a permis d'évoluer et de trouver les adaptations nécessaires pour suivre les besoins des activités à exercer. Il a ainsi commencé par se développer dans la vente de produits puis la prestation de services pour convenir ensuite à des activités libérales, telles que le conseil et le management. A l'intérieur de ce cadre non contraignant, le contrat de franchise impose en revanche un ensemble complexe d'obligations, lesquelles impliquent pour les partenaires une grande implication personnelle et commerciale. La jurisprudence a d'ailleurs largement contribué à préciser le contenu de nombreuses notions liées à ce contrat. 4 Une des fortes spécificités du contrat de franchise est d'une part, son caractère d'intuitus personae qui rend essentiel le choix de la personne du cocontractant, et d'autre part, l'idée de collaboration étroite entre les partenaires qui leur permet à la fois de détenir une grande force dans la réussite de la réitération de la franchise, mais qui peut aussi être source de fragilités. Il y a d'ailleurs un équilibre à trouver entre des réalités paradoxales : l'intégration du franchisé dans un réseau protégé par l'imposition de normes ainsi que le contrôle exercé par le franchiseur et le respect de l'indépendance juridique de ce franchisé. 5 Malgré ces promesses indéniables de réussite du franchisé grâce à la réitération des méthodes éprouvées par le franchiseur, de nombreux écueils guettent la franchise, et ont été largement traités par la doctrine et la jurisprudence. On peut citer notamment la difficulté de trouver un équilibre entre la supériorité économique du franchiseur et l'indépendance juridique du franchisé, la nécessité d'informer correctement et suffisamment le franchisé sur les perspectives de la franchise grâce à l'obligation d'information précontractuelle. Ces difficultés peuvent déboucher sur une «faillite » du franchisé. Placés devant cette situation, commence pour les partenaires une période de turbulences, au cours de laquelle les principes fondateurs du contrat, intuitus personae et collaboration sont remis en question. 6 Les difficultés d'application des mesures de la loi sur le redressement et la liquidation judiciaires, au partenaire en difficulté et au contrat de franchise n'ont pas encore reçu de réponse satisfaisante dans la pratique. En effet, comment peuvent être préservées la spécificité de la relation contractuelle basée sur l'intuitus personae et la forte collaboration en pareille situation ? Quel sera le traitement d'un contrat de franchise dans la procédure collective ? Dès lors que la «faillite » concerne un contrat de franchise, le cadre habituel et respectueux des spécificités de ce contrat fait place à un ensemble de règles d'exception qui vont s'appliquer uniformément à tous les contrats de l'entreprise en difficulté, en vue de la redresser. Précisément, le contrat de franchise est un révélateur des difficultés d'application uniforme et indifférenciée des règles de la «faillite » à des situations présentant des particularités. 7 Le franchisé est celui qui dans l'exécution normale du contrat, doit constamment chercher à équilibrer les rapports contractuels à la fois pour préserver son autonomie juridique, et garder une collaboration avec le franchiseur de manière à s'inspirer de ses conseils et des recettes de sa réussite ; il doit également s'assurer dans le cadre d'une bonne collaboration que le franchiseur exécute ses obligations quant à la transmission de l'information ainsi que la fourniture d'une assistance suffisante, mais sans dépassement. Cet équilibre comme on le verra n'est pas facile à trouver. Dans la «faillite », le franchisé n'aura pas beaucoup le choix des moyens. Son contrat sera soumis aux décisions des mandataires de la procédure qui pourront prendre certaines mesures ne tenant pas compte de la spécificité des liens contractuels entre le franchisé et le franchiseur. 8 La position de faiblesse du franchisé dans la relation de franchise, conduit à envisager principalement les conséquences de la «faillite » sur sa situation, plutôt que d'envisager d'un côté la «faillite » du franchisé et de l'autre côté, la «faillite » du franchiseur. Ce choix de porter l'attention sur la situation du franchisé s'explique par les grandes particularités qui ressortent en pareil cas. La présente étude se propose donc dans une première partie d'étudier précisément le contrat de franchise dans son cadre général ainsi que dans ses particularités, en faisant ressortir à la fois ses fortes particularités et les risques de «faillite »qu'il présente (chapitre unique). Dans une deuxième partie, il est question du sort du contrat de franchise en cas de «faillite » de l'une des parties, en particulier le franchisé, des effets de l'intuitus personae, qui est remis en question lors de la cession judiciaire du contrat (chapitre I) et des effets de l'étroite collaboration entre les parties, qui se posent lorsque le franchiseur a dépassé ses prérogatives dans le contrôle de la gestion, et en général de tout préjudice ayant consisté à aggraver la situation financière du franchisé. Se posent alors les possibilités de mise en jeu de la responsabilité du franchiseur (chapitre II). Il reste à préciser que des aspects de la «faillite » du franchiseur peuvent également être abordés lorsqu'ils revêtent un intérêt pour cette étude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse :Les individus HIV-positifs constituent une population à risque pour les maladies cardiovasculaires telles que |'infarctus cardiaque ou cérébrale. Celles-ci découlent d'une formation accélérée d'athéroscIérose. Ces pathologies s'expliquent en grande partie par une dyslipidémie observée au sein de cette population et qui sont dues à des facteurs externes tels que : l'immunosuppression avancée, la virémie non-contrôlée, et les effets de la thérapie antirétrovirale. Récemment, des polymorphismes nucléotidiques simples (SNP) associés à la dyslipidémie ont été mis en évidence d'une manière globale par des Genome-Wide Association Studies (GWAS). Le but principal de cette étude est d'éva|uer et de valider |'effet cumulatif des SNP identifiés dans ces GWAS pour la dyslipidémie chez des patients HIV-positifs. De plus, |'identification des facteurs non-génétiques qui contribuent à la dyslipidémie démontrent |'importance des facteurs externes, tels que mentionnés ci- dessus, et en particulier à ceux de la thérapie antirétrovirale.Les participants de l'étude proviennent de trois groupes: 426 personnes sélectionnées pour une étude précédente, 222 personnes sélectionnées de façon arbitraire dans la "Cohorte HIV Suisse" et 103 personnes sélectionnées avec un "New-Onset Diabetes mellitus" identifiées lors d'études précédentes. Ces individus ont contribué à plus de 34'000 mesures de lipides sur une durée moyenne supérieure à 7 ans. Pour l'étude, 33 SNP identifiés dans des GWAS et 9 SNP identifiés dans d'autres études publiées dans la littérature non-couverte par des GWAS ont été repris. Le génotypage a été complété pour 745 (99.2%) des 751 participants. Pour les analyses statistiques, les thérapies antirétrovirales ont été divisées en trois groupes (favorisant peu, moyennement et fortement la dyslipidémie), et trois scores génétiques ont été créés (profil favorable, moyennement favorable, non favorable/favorisant la dyslipidémie). Dans un premier temps, l'effet sur la valeur des lipides d'un ou deux allèles variants a été analysé au moyen d'un modèle de régression pour chaque SNP en ajustant le modèle pour les variables non- génétiques. Dans un deuxième temps, les SNP ayant une valeur p >= à 0.2 ont été repris dans un model Multi-SNP, ce modèle est également ajusté pour les variables non-génétiques. Puisque cette étude se base sur des SNP précédemment identifiés, celle-ci évalue uniquement l'association établie entre chaque SNP et les critères qui ont été établis au préalable, tels que : Cholestérol totale, HDL Cholestérol, non-HDL Cholestérol ou Triglycérides. Les résultats trouvés lors de |'étude confirment les résultats de la littérature. Cette étude montre que les SNP associés à la dyslipidémie doivent être analysés dans le contexte d'une thérapie antirétrovirale en tenant compte de la démographie et en considérant les valeurs du HIV (CD4+, virémie). Ces SNP montrent une tendance à prédire une dyslipidémie prolongée chez l'individu. En effet, un patient avec une thérapie antirétrovirale favorisant la dyslipidémie et un patrimoine génétique non-favorable a un risque qui est 3-f0is plus important d'avoir un Non-HDL- Cholestérol élevé, 5-fois plus important d'avoir un HDL-Cholestérol abaissé, et 4 à 5-fois plus important d'avoir une hypertriglycéridémie qu'un patient qui suit une thérapie antirétrovirale favorisant peu la dyslipidémie qui a un patrimoine génétique favorable. Vu la corrélation entre les SNP et la thérapie antirétrovirale, les cliniciens devraient intégrer les informations génétiques afin de choisir une thérapie antirétrovirale en fonction du patrimoine génétique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La « surexploitation » des eaux souterraines est devenue au début des années 2000 une thématique majeure des programmes de développement des régions semi arides et arides de Syrie. Les fondements scientifiques du discours de surexploitation posent cependant question à plus d'un titre. Mobilisant une notion mal définie, le diagnostic de surexploitation réinterprète d'anciennes données soviétiques qui n'ont pas été actualisées. D'autre part, appliqué globalement à des espaces très hétérogènes, il n'apporte aucun élément d'évaluation et de régulation des pratiques d'exploitation. Les mesures de conservation des eaux souterraines qu'il justifie offrent alors un paradoxe. Présentées comme des mesures de restriction de l'exploitation des eaux souterraines, leur application dans les régions semi-arides a conduit à pénaliser les agriculteurs qui font l'usage le plus efficace de la ressource hydrique sans pour autant réduire la consommation en eau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article présente la situation des femmes au sein des hiérarchies professionnelles et examine les différentes mesures législatives qui visent à promouvoir une meilleure répartition sexuée de la « prise de décision » dans le champ économique en Europe. Il s'appuie à la fois sur les documents publiés par la Commission européenne, sur des initiatives adoptées dans certains États membres et sur des données issues de plusieurs recherches récentes sur les femmes cadres et dirigeantes d'entreprise en Europe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Modern urban lifestyle encourages the prolongation of wakefulness, leaving less and less time for sleep. Although the exact functions of sleep remain one of the biggest mysteries in neuroscience, the society is well aware of the negative consequences of sleep loss on human physical and mental health and performance. Enhancing sleep's recuperative functions might allow shortening sleep duration while preserving the beneficial effects of sleep. During sleep, brain activity oscillates across a continuum of frequencies. Individual oscillations have been suggested to underlie distinct functions for sleep and cognition. Gaining control about individual oscillations might allow boosting their specific functions. Sleep spindles are 11 - 15 Hz oscillations characteristic for light non-rapid-eye-movement sleep (NREMS) and have been proposed to play a role in memory consolidation and sleep protection against environmental stimuli. The reticular thalamic nucleus (nRt) has been identified as the major pacemaker of spindles. Intrinsic oscillatory burst discharge in nRt neurons, arising from the interplay of low-threshold (T-type) Ca2+ channels (T channels) and small conductance type 2 (SK2) K+ channels (SK2 channels), underlies this pacemaking function. In the present work we investigated the impact of altered nRt bursting on spindle generation during sleep by studying mutant mice for SK2 channels and for CaV3.3 channels, a subtype of T channels. Using in vitro electrophysiology I showed that nRt bursting was abolished in CaV3.3 knock out (CaV3.3 KO) mice. In contrast, in SK2 channel over-expressing (SK2-OE) nRt cells, intrinsic repetitive bursting was prolonged. Compared to wildtype (WT) littermates, altered nRt burst discharge lead to weakened thalamic network oscillations in vitro in CaV3.3 KO mice, while oscillatory activity was prolonged in SK2-OE mice. Sleep electroencephalographic recordings in CaV3.3 KO and SK2-OE mice revealed that reduced or potentiated nRt bursting respectively weakened or prolonged sleep spindle activity at the NREMS - REMS transition. Furthermore, SK2-OE mice showed more consolidated NREMS and increased arousal thresholds, two correlates of good sleep quality. This thesis work suggests that CaV3.3 and SK2 channels may be targeted in order to modulate sleep spindle activity. Furthermore, it proposes a novel function for spindles in NREMS consolidation. Finally, it provides evidence that sleep quality may be improved by promoting spindle activity, thereby supporting the hypothesis that sleep quality can be enhanced by modulating oscillatory activity in the brain. Le style de vie moderne favorise la prolongation de l'éveil, laissant de moins en moins de temps pour le sommeil. Même si le rôle exact du sommeil reste un des plus grands mystères des neurosciences, la société est bien consciente des conséquences négatives que provoque un manque de sommeil, à la fois sur le plan de la santé physique et mentale ainsi qu'au niveau des performances cognitives. Augmenter les fonctions récupératrices du sommeil pourrait permettre de raccourcir la durée du sommeil tout en en conservant les effets bénéfiques. Durant le sommeil, on observe des oscillations à travers un continuum de fréquences. Il a été proposé que chaque oscillation pourrait être à l'origine de fonctions spécifiques pour le sommeil et la cognition. Pouvoir de contrôler les oscillations individuelles permettrait d'augmenter leurs fonctions respectives. Les fuseaux sont des oscillations de 11 à 15 Hz caractéristiques du sommeil à ondes lentes léger et il a été suggéré qu'elles jouent un rôle majeur pour la consolidation de la mémoire ainsi que dans la protection du sommeil contre les stimuli environnementaux. Le nucleus réticulaire du thalamus (nRt) a été identifié en tant que générateur de rythme des fuseaux. Les bouffées oscillatoires intrinsèques des neurones du nRt, provenant de l'interaction de canaux calciques à bas seuil de type T (canaux T) et de canaux potassiques à faible conductance de type 2 (canaux SK2), sont à l'origine de la fonction de générateur de rythme. Dans ce travail, j'ai étudié l'impact de la modulation de bouffées de nRT sur la génération des fuseaux pendant le sommeil en investiguant des souris génétiquement modifiées pour les canaux SK2 et les canaux CaV3.3, un sous-type de canaux T. En utilisant l'électrophysiologie in vitro j'ai démontré que les bouffées du nRT étaient abolies dans les souris knock-out du type CaV3.3 (CaV3.3 KO). D'autre part, dans les cellules nRT sur-exprimant les canaux SK2 (SK2-OE), les bouffées oscillatoires intrinsèques étaient prolongées. Par rapport aux souris wild type, les souris CaV3.3 KO ont montré un affaiblissement des oscillations thalamiques en réponse à un changement des bouffées de nRT, alors que l'activité oscillatoire était prolongée dans les souris SK2-OE. Des enregistrements EEG du sommeil dans des souris de type CaV3.3 KO et SK2-OE ont révélé qu'une réduction ou augmentation des bouffées nRT ont respectivement affaibli ou prolongé l'activité des fuseaux durant les transitions du sommeil à ondes lentes au sommeil paradoxal. De plus, les souris SK2-OE ont montré des signes de consolidation du sommeil à ondes lentes et un seuil augmenté pour le réveil, deux mesures qui corrèlent avec une bonne qualité du sommeil. Le travail de cette thèse propose que les canaux CaV3.3 et SK2 pourrait être ciblés pour moduler l'activité des fuseaux. De plus, je propose une fonction nouvelle pour les fuseaux dans la consolidation du sommeil à ondes lentes. Finalement je suggère que la qualité du sommeil peut être améliorée en promouvant l'activité des fuseaux, soutenant ainsi l'idée que la qualité du sommeil peut être améliorée en modulant l'activité oscillatoire dans le cerveau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In vivo dosimetry is a way to verify the radiation dose delivered to the patient in measuring the dose generally during the first fraction of the treatment. It is the only dose delivery control based on a measurement performed during the treatment. In today's radiotherapy practice, the dose delivered to the patient is planned using 3D dose calculation algorithms and volumetric images representing the patient. Due to the high accuracy and precision necessary in radiation treatments, national and international organisations like ICRU and AAPM recommend the use of in vivo dosimetry. It is also mandatory in some countries like France. Various in vivo dosimetry methods have been developed during the past years. These methods are point-, line-, plane- or 3D dose controls. A 3D in vivo dosimetry provides the most information about the dose delivered to the patient, with respect to ID and 2D methods. However, to our knowledge, it is generally not routinely applied to patient treatments yet. The aim of this PhD thesis was to determine whether it is possible to reconstruct the 3D delivered dose using transmitted beam measurements in the context of narrow beams. An iterative dose reconstruction method has been described and implemented. The iterative algorithm includes a simple 3D dose calculation algorithm based on the convolution/superposition principle. The methodology was applied to narrow beams produced by a conventional 6 MV linac. The transmitted dose was measured using an array of ion chambers, as to simulate the linear nature of a tomotherapy detector. We showed that the iterative algorithm converges quickly and reconstructs the dose within a good agreement (at least 3% / 3 mm locally), which is inside the 5% recommended by the ICRU. Moreover it was demonstrated on phantom measurements that the proposed method allows us detecting some set-up errors and interfraction geometry modifications. We also have discussed the limitations of the 3D dose reconstruction for dose delivery error detection. Afterwards, stability tests of the tomotherapy MVCT built-in onboard detector was performed in order to evaluate if such a detector is suitable for 3D in-vivo dosimetry. The detector showed stability on short and long terms comparable to other imaging devices as the EPIDs, also used for in vivo dosimetry. Subsequently, a methodology for the dose reconstruction using the tomotherapy MVCT detector is proposed in the context of static irradiations. This manuscript is composed of two articles and a script providing further information related to this work. In the latter, the first chapter introduces the state-of-the-art of in vivo dosimetry and adaptive radiotherapy, and explains why we are interested in performing 3D dose reconstructions. In chapter 2 a dose calculation algorithm implemented for this work is reviewed with a detailed description of the physical parameters needed for calculating 3D absorbed dose distributions. The tomotherapy MVCT detector used for transit measurements and its characteristics are described in chapter 3. Chapter 4 contains a first article entitled '3D dose reconstruction for narrow beams using ion chamber array measurements', which describes the dose reconstruction method and presents tests of the methodology on phantoms irradiated with 6 MV narrow photon beams. Chapter 5 contains a second article 'Stability of the Helical TomoTherapy HiArt II detector for treatment beam irradiations. A dose reconstruction process specific to the use of the tomotherapy MVCT detector is presented in chapter 6. A discussion and perspectives of the PhD thesis are presented in chapter 7, followed by a conclusion in chapter 8. The tomotherapy treatment device is described in appendix 1 and an overview of 3D conformai- and intensity modulated radiotherapy is presented in appendix 2. - La dosimétrie in vivo est une technique utilisée pour vérifier la dose délivrée au patient en faisant une mesure, généralement pendant la première séance du traitement. Il s'agit de la seule technique de contrôle de la dose délivrée basée sur une mesure réalisée durant l'irradiation du patient. La dose au patient est calculée au moyen d'algorithmes 3D utilisant des images volumétriques du patient. En raison de la haute précision nécessaire lors des traitements de radiothérapie, des organismes nationaux et internationaux tels que l'ICRU et l'AAPM recommandent l'utilisation de la dosimétrie in vivo, qui est devenue obligatoire dans certains pays dont la France. Diverses méthodes de dosimétrie in vivo existent. Elles peuvent être classées en dosimétrie ponctuelle, planaire ou tridimensionnelle. La dosimétrie 3D est celle qui fournit le plus d'information sur la dose délivrée. Cependant, à notre connaissance, elle n'est généralement pas appliquée dans la routine clinique. Le but de cette recherche était de déterminer s'il est possible de reconstruire la dose 3D délivrée en se basant sur des mesures de la dose transmise, dans le contexte des faisceaux étroits. Une méthode itérative de reconstruction de la dose a été décrite et implémentée. L'algorithme itératif contient un algorithme simple basé sur le principe de convolution/superposition pour le calcul de la dose. La dose transmise a été mesurée à l'aide d'une série de chambres à ionisations alignées afin de simuler la nature linéaire du détecteur de la tomothérapie. Nous avons montré que l'algorithme itératif converge rapidement et qu'il permet de reconstruire la dose délivrée avec une bonne précision (au moins 3 % localement / 3 mm). De plus, nous avons démontré que cette méthode permet de détecter certaines erreurs de positionnement du patient, ainsi que des modifications géométriques qui peuvent subvenir entre les séances de traitement. Nous avons discuté les limites de cette méthode pour la détection de certaines erreurs d'irradiation. Par la suite, des tests de stabilité du détecteur MVCT intégré à la tomothérapie ont été effectués, dans le but de déterminer si ce dernier peut être utilisé pour la dosimétrie in vivo. Ce détecteur a démontré une stabilité à court et à long terme comparable à d'autres détecteurs tels que les EPIDs également utilisés pour l'imagerie et la dosimétrie in vivo. Pour finir, une adaptation de la méthode de reconstruction de la dose a été proposée afin de pouvoir l'implémenter sur une installation de tomothérapie. Ce manuscrit est composé de deux articles et d'un script contenant des informations supplémentaires sur ce travail. Dans ce dernier, le premier chapitre introduit l'état de l'art de la dosimétrie in vivo et de la radiothérapie adaptative, et explique pourquoi nous nous intéressons à la reconstruction 3D de la dose délivrée. Dans le chapitre 2, l'algorithme 3D de calcul de dose implémenté pour ce travail est décrit, ainsi que les paramètres physiques principaux nécessaires pour le calcul de dose. Les caractéristiques du détecteur MVCT de la tomothérapie utilisé pour les mesures de transit sont décrites dans le chapitre 3. Le chapitre 4 contient un premier article intitulé '3D dose reconstruction for narrow beams using ion chamber array measurements', qui décrit la méthode de reconstruction et présente des tests de la méthodologie sur des fantômes irradiés avec des faisceaux étroits. Le chapitre 5 contient un second article intitulé 'Stability of the Helical TomoTherapy HiArt II detector for treatment beam irradiations'. Un procédé de reconstruction de la dose spécifique pour l'utilisation du détecteur MVCT de la tomothérapie est présenté au chapitre 6. Une discussion et les perspectives de la thèse de doctorat sont présentées au chapitre 7, suivies par une conclusion au chapitre 8. Le concept de la tomothérapie est exposé dans l'annexe 1. Pour finir, la radiothérapie «informationnelle 3D et la radiothérapie par modulation d'intensité sont présentées dans l'annexe 2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les spécialistes en santé au travail ont très tôt insisté pour établir des lois et des mesures de protection contre la fumée passive pour les employés, comme l'article de J. Perrenoud ["Tabagisme passif : avancées et pièges dans l'évolution du droit suisse"] le montre. Dans la recherche également, les premières études sur les effets nocifs et gênants ont été réalisées par les spécialistes en santé au travail. Dans les années 70 et 80, c'est plus particulièrement A. Weber et ses collègues de l'IHA ETH Zurich qui ont montré que l'irritation des yeux, le clignement des paupières et la sensation de gêne augmentent en fonction de la concentration de la fumée passive et de la durée de l'exposition. Ces travaux ont été pris en compte dans le fameux rapport américain du Surgeon General sur la nocivité de la fumée passive : le point de départ de la lutte contre la fumée passive aux Etats-Unis. Au niveau de l'exposition, les hygiénistes de l'Institut universitaire romand de santé au travail (IST) ont développé des techniques de mesure et de prélèvement. [Auteure (extrait)]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : Understanding how biodiversity is distributed is central to any conservation effort and has traditionally been based on niche modeling and the causal relationship between spatial distribution of organisms and their environment. More recently, the study of species' evolutionary history and relatedness has permeated the fields of ecology and conservation and, coupled with spatial predictions, provides useful insights to the origin of current biodiversity patterns, community structuring and potential vulnerability to extinction. This thesis explores several key ecological questions by combining the fields of niche modeling and phylogenetics and using important components of southern African biodiversity. The aims of this thesis are to provide comparisons of biodiversity measures, to assess how climate change will affect evolutionary history loss, to ask whether there is a clear link between evolutionary history and morphology and to investigate the potential role of relatedness in macro-climatic niche structuring. The first part of my thesis provides a fine scale comparison and spatial overlap quantification of species richness and phylogenetic diversity predictions for one of the most diverse plant families in the Cape Floristic Region (CFR), the Proteaceae. In several of the measures used, patterns do not match sufficiently to argue that species relatedness information is implicit in species richness patterns. The second part of my thesis predicts how climate change may affect threat and potential extinction of southern African animal and plant taxa. I compare present and future niche models to assess whether predicted species extinction will result in higher or lower V phylogenetic diversity survival than what would be experienced under random extinction processes. l find that predicted extinction will result in lower phylogenetic diversity survival but that this non-random pattern will be detected only after a substantial proportion of the taxa in each group has been lost. The third part of my thesis explores the relationship between phylogenetic and morphological distance in southern African bats to assess whether long evolutionary histories correspond to equally high levels of morphological variation, as predicted by a neutral model of character evolution. I find no such evidence; on the contrary weak negative trends are detected for this group, as well as in simulations of both neutral and convergent character evolution. Finally, I ask whether spatial and climatic niche occupancy in southern African bats is influenced by evolutionary history or not. I relate divergence time between species pairs to climatic niche and range overlap and find no evidence for clear phylogenetic structuring. I argue that this may be due to particularly high levels of micro-niche partitioning. Résumé : Comprendre la distribution de la biodiversité représente un enjeu majeur pour la conservation de la nature. Les analyses se basent le plus souvent sur la modélisation de la niche écologique à travers l'étude des relations causales entre la distribution spatiale des organismes et leur environnement. Depuis peu, l'étude de l'histoire évolutive des organismes est également utilisée dans les domaines de l'écologie et de la conservation. En combinaison avec la modélisation de la distribution spatiale des organismes, cette nouvelle approche fournit des informations pertinentes pour mieux comprendre l'origine des patterns de biodiversité actuels, de la structuration des communautés et des risques potentiels d'extinction. Cette thèse explore plusieurs grandes questions écologiques, en combinant les domaines de la modélisation de la niche et de la phylogénétique. Elle s'applique aux composants importants de la biodiversité de l'Afrique australe. Les objectifs de cette thèse ont été l) de comparer différentes mesures de la biodiversité, 2) d'évaluer l'impact des changements climatiques à venir sur la perte de diversité phylogénétique, 3) d'analyser le lien potentiel entre diversité phylogénétique et diversité morphologique et 4) d'étudier le rôle potentiel de la phylogénie sur la structuration des niches macro-climatiques des espèces. La première partie de cette thèse fournit une comparaison spatiale, et une quantification du chevauchement, entre des prévisions de richesse spécifique et des prédictions de la diversité phylogénétique pour l'une des familles de plantes les plus riches en espèces de la région floristique du Cap (CFR), les Proteaceae. Il résulte des analyses que plusieurs mesures de diversité phylogénétique montraient des distributions spatiales différentes de la richesse spécifique, habituellement utilisée pour édicter des mesures de conservation. La deuxième partie évalue les effets potentiels des changements climatiques attendus sur les taux d'extinction d'animaux et de plantes de l'Afrique australe. Pour cela, des modèles de distribution d'espèces actuels et futurs ont permis de déterminer si l'extinction des espèces se traduira par une plus grande ou une plus petite perte de diversité phylogénétique en comparaison à un processus d'extinction aléatoire. Les résultats ont effectivement montré que l'extinction des espèces liées aux changements climatiques pourrait entraîner une perte plus grande de diversité phylogénétique. Cependant, cette perte ne serait plus grande que celle liée à un processus d'extinction aléatoire qu'à partir d'une forte perte de taxons dans chaque groupe. La troisième partie de cette thèse explore la relation entre distances phylogénétiques et morphologiques d'espèces de chauves-souris de l'Afrique australe. ll s'agit plus précisément de déterminer si une longue histoire évolutive correspond également à des variations morphologiques plus grandes dans ce groupe. Cette relation est en fait prédite par un modèle neutre d'évolution de caractères. Aucune évidence de cette relation n'a émergé des analyses. Au contraire, des tendances négatives ont été détectées, ce qui représenterait la conséquence d'une évolution convergente entre clades et des niveaux élevés de cloisonnement pour chaque clade. Enfin, la dernière partie présente une étude sur la répartition de la niche climatique des chauves-souris de l'Afrique australe. Dans cette étude je rapporte temps de divergence évolutive (ou deux espèces ont divergé depuis un ancêtre commun) au niveau de chevauchement de leurs niches climatiques. Les résultats n'ont pas pu mettre en évidence de lien entre ces deux paramètres. Les résultats soutiennent plutôt l'idée que cela pourrait être I dû à des niveaux particulièrement élevés de répartition de la niche à échelle fine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans les années 80, la crainte de la pléthore médicale imposait des mesures radicales. En 2002, c'est l'angoisse de l'envahisseur européen qui a justifié un moratoire sur l'ouverture de nouveaux cabinets. Aujourd'hui, alors que la Suisse recrute de plus en plus dedecins étrangers pour ses besoins, le Conseiller fédéral Couchepin brandit la menace d'une augmentation des coûts de la santé de 300 millions par an pour justifier une troisième prolongation du moratoire. Ces mesures ont été dictées par la peur d'une explosion des coûts au point de faire perdre de vue la globalité de la situation. Aujourd'hui pourtant, une gestion rationnelle des ressources impose de tout faire pour qu'un maximum dedecins puissent travailler, car la population en a besoin et a déjà beaucoup investi dans leur formation ! Pour y parvenir, la création de postes d'assistanat à temps partiel, l'adaptation urgente des structures d'accueil en garderie et le respect de conditions de travail raisonnables sont des éléments incontournables mais trop souvent négligés par les politiques et les médecins eux-mêmes !

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Switzerland, the annual cost of damage by natural elements has been increasing for several years despite the introduction of protective measures. Mainly induced by material destruction building insurance companies have to pay the majority of this cost. In many European countries, governments and insurance companies consider prevention strategies to reduce vulnerability. In Switzerland, since 2004, the cost of damage due to natural hazards has surpassed the cost of damage due to fire; a traditional activity of the Cantonal Insurance company (EGA). Therefore, the strategy for efficient fire prevention incorporates a reduction of the vulnerability of buildings. The thesis seeks to illustrate the relevance of such an approach when applied to the damage caused by natural hazards. It examines the role of insurance place and its involvement in targeted prevention of natural disasters. Integrated risk management involves a faultless comprehension of all risk parameters The first part of the thesis is devoted to the theoretical development of the key concepts that influence risk management, such as: hazard, vulnerability, exposure or damage. The literature on this subject, very prolific in recent years, was taken into account and put in perspective in the context of this study. Among the risk parameters, it is shown in the thesis that vulnerability is a factor that we can influence efficiently in order to limit the cost of damage to buildings. This is confirmed through the development of an analysis method. This method has led to the development of a tool to assess damage to buildings by flooding. The tool, designed for the property insurer or owner, proposes several steps, namely: - Vulnerability and damage potential assessment; - Proposals for remedial measures and risk reduction from an analysis of the costs of a potential flood; - Adaptation of a global strategy in high-risk areas based on the elements at risk. The final part of the thesis is devoted to the study of a hail event in order to provide a better understanding of damage to buildings. For this, two samples from the available claims data were selected and analysed in the study. The results allow the identification of new trends A second objective of the study was to develop a hail model based on the available data The model simulates a random distribution of intensities and coupled with a risk model, proposes a simulation of damage costs for the determined study area. Le coût annuel des dommages provoqués par les éléments naturels en Suisse est conséquent et sa tendance est en augmentation depuis plusieurs années, malgré la mise en place d'ouvrages de protection et la mise en oeuvre de moyens importants. Majoritairement induit par des dégâts matériels, le coût est supporté en partie par les assurances immobilières en ce qui concerne les dommages aux bâtiments. Dans de nombreux pays européens, les gouvernements et les compagnies d'assurance se sont mis à concevoir leur stratégie de prévention en termes de réduction de la vulnérabilité. Depuis 2004, en Suisse, ce coût a dépassé celui des dommages dus à l'incendie, activité traditionnelle des établissements cantonaux d'assurance (ECA). Ce fait, aux implications stratégiques nombreuses dans le domaine public de la gestion des risques, résulte en particulier d'une politique de prévention des incendies menée efficacement depuis plusieurs années, notamment par le biais de la diminution de la vulnérabilité des bâtiments. La thèse, par la mise en valeur de données actuarielles ainsi que par le développement d'outils d'analyse, cherche à illustrer la pertinence d'une telle approche appliquée aux dommages induits par les phénomènes naturels. Elle s'interroge sur la place de l'assurance et son implication dans une prévention ciblée des catastrophes naturelles. La gestion intégrale des risques passe par une juste maîtrise de ses paramètres et de leur compréhension. La première partie de la thèse est ainsi consacrée au développement théorique des concepts clés ayant une influence sur la gestion des risques, comme l'aléa, la vulnérabilité, l'exposition ou le dommage. La littérature à ce sujet, très prolifique ces dernières années, a été repnse et mise en perspective dans le contexte de l'étude, à savoir l'assurance immobilière. Parmi les paramètres du risque, il est démontré dans la thèse que la vulnérabilité est un facteur sur lequel il est possible d'influer de manière efficace dans le but de limiter les coûts des dommages aux bâtiments. Ce raisonnement est confirmé dans un premier temps dans le cadre de l'élaboration d'une méthode d'analyse ayant débouché sur le développement d'un outil d'estimation des dommages aux bâtiments dus aux inondations. L'outil, destiné aux assurances immobilières, et le cas échéant aux propriétaires, offre plusieurs étapes, à savoir : - l'analyse de la vulnérabilité et le potentiel de dommages ; - des propositions de mesures de remédiation et de réduction du risque issues d'une analyse des coûts engendrés par une inondation potentielle; - l'adaptation d'une stratégie globale dans les zones à risque en fonction des éléments à risque. La dernière partie de la thèse est consacrée à l'étude d'un événement de grêle dans le but de fournir une meilleure compréhension des dommages aux bâtiments et de leur structure. Pour cela, deux échantillons ont été sélectionnés et analysés parmi les données de sinistres à disposition de l'étude. Les résultats obtenus, tant au niveau du portefeuille assuré que de l'analyse individuelle, permettent de dégager des tendances nouvelles. Un deuxième objectif de l'étude a consisté à élaborer une modélisation d'événements de grêle basée sur les données à disposition. Le modèle permet de simuler une distribution aléatoire des intensités et, couplé à un modèle d'estimation des risques, offre une simulation des coûts de dommages envisagés pour une zone d'étude déterminée. Les perspectives de ce travail permettent une meilleure focalisation du rôle de l'assurance et de ses besoins en matière de prévention.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Agir efficacement contre les incendies volontaires répétitifs représente un défi de taille pour la société et la police. Nous proposons d'utiliser l'intelligence-led policing et le cycle du renseignement comme cadre à une approche permettant une gestion et un suivi global et systématique de ces événements. Mais avant de pouvoir lancer ce processus, un certain nombre de défis doit être surmonté tel que la nature non spécifique des données. Il sera alors possible de mettre en place un processus qui permettra de faire des analyses pour obtenir une vision des incendies, détecter des situations répétitives et des liens entre les événements mettant en évidence des séries. Le renseignement obtenu par l'analyse des données rassemblées peut ensuite être utilisé pour mettre en place des moyens complémentaires d'enquête ou pour prendre des mesures préventives ou répressives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pseudomonas aeruginosa, une bactérie environnementale ubiquitaire, est un des pathogènes nosocomiaux les plus fréquents aux soins intensifs. La source de ce microorganisme peut être soit endogène, 2,6 à 24 % des patients hospitalisés étant colonisés au niveau digestif, soit exogène. La proportion des cas d'infections à P. aeruginosa d'origine exogène, donc secondaires à une transmission par manuportage ou par l'eau du réseau utilisée pour la toilette ou d'autres soins, reste débattue. Or une meilleure évaluation du taux d'infections exogènes est importante pour la mise en place de mesures de contrôle appropriées. Le but de cette étude était de déterminer sur une période de 10 ans les rôles respectifs des sources exogènes (robinets, autres patients) et endogène dans la colonisation et/ou l'infection par P.aeruginosa chez les patients des Soins Intensifs, ainsi que de documenter les variations épidémiologiques au cours du temps. L'étude a été menée dans les unités de Soins Intensifs du Centre Hospitalier Universitaire Vaudois (CHUV). Les patients colonisés et/ou infectés par P. aeruginosa entre 1998 et 2007ont été identifiés via la base de données du laboratoire de microbiologie. Ils ont été inclus dans l'étude s'ils étaient hospitalisés dans une des unités de Soins Intensifs, Durant cette période, des prélèvements pour recherche de P. aeruginosa ont été effectués sur des robinets des soins intensifs. Un typage moléculaire a été effectué sur toutes les souches cliniques et environnementales isolées en 1998, 2000, 2003, 2004 et 2007. Les patients inclus dans l'étude ont été répartis en quatre catégories (A-D) selon le résultat du typage moléculaire leur souche de P. aeruginosa. La catégorie A inclut les cas pour lesquels le génotype de P. aeruginosa est identique à un des génotypes retrouvé dans l'environnement. La catégorie B comprend les cas pour lesquels le génotype est identique à celui d'au moins un autre patient. La catégorie C comprend les cas avec un génotype unique et la catégorie D comprend les cas pour lesquels la souche était non disponible pour le typage. Les cas des catégories A et B sont considérés comme ayant une origine exogène. Au cours des années de l'étude, le nombre d'admissions aux soins intensifs est resté stable. En moyenne, 86 patients par année ont été identifiés colonisés ou infectés par P. aeruginosa aux Soins Intensifs. Durant la première année d'investigation, un grand nombre de patients colonisés par une souche de P. aeruginosa identique à une de celles retrouvées dans l'environnement a été mis en évidence. Par la suite, possiblement suite à l'augmentation de la température du réseau d'eau chaude, le nombre de cas dans la catégorie A a diminué. Dans la catégorie B, le nombre de cas varie de 1,9 à 20 cas/1000 admissions selon les années. Ce nombre est supérieur à 10 cas/1000 admissions en 1998, 2003 et 2007 et correspond à des situations épidémiques transitoires. Tout au long des 10 ans de l'étude, le nombre de cas dans la catégorie C (source endogène) est demeuré stable et indépendant des variations du nombre de cas dans les catégories A et B. En conclusion, la contribution relative des réservoirs endogène et exogène dans la colonisation et/ou l'infection des patients de soins Intensifs varie au cours du temps. Les facteurs principaux qui contribuent à de telles variations sont probablement le degré de contamination de l'environnement, la compliance des soignants aux mesures de contrôle des infections et la génétique du pathogène lui-même. Etant donné que ce germe est ubiquitaire dans l'environnement aqueux et colonise jusqu'à 15% des patients hospitalisés, la disparition de son réservoir endogène semble difficile. Cependant, cette étude démontre que son contrôle est possible dans l'environnement, notamment dans les robinets en augmentant la température de l'eau. De plus, si une souche multi-résistante est retrouvée de manière répétée dans l'environnement, des efforts doivent être mis en place pour éliminer cette souche. Des efforts doivent être également entrepris afin de limiter la transmission entre les patients, qui est une cause importante et récurrente de contamination exogène. - Pseudomonas aeruginosa is one of the leading nosocomial pathogens in intensive care units (ICUs). The source of this microorganism can be either endogenous or exogenous. The proportion of cases as a result of transmission is still debated, and its elucidation is important for implementing appropriate control measures. To understand the relative importance of exogenous vs. endogenous sources of P. aeru¬ginosa, molecular typing was performed on all available P. aeruginosa isolated from ICU clinical and environmental specimens in 1998, 2000, 2003, 2004 and 2007. Patient samples were classified according to their P. aeruginosa genotypes into three categories: (A) identical to isolate from faucet; (B) identical to at least one other patient sample and not found in faucet; and (C) unique genotype. Cases in cat¬egories A and Β were considered as possibly exogenous, and cases in category C as possibly endogenous. A mean of 34 cases per 1000 admissions per year were found to be colonized or infected by P. aeruginosa. Higher levels of faucet contamination were correlated with a higher number of cases in category A. The number of cases in category Β varied from 1.9 to 20 cases per 1000 admissions. This num¬ber exceeded 10/1000 admissions on three occasions and was correlated with an outbreak on one occasion. The number of cases con¬sidered as endogenous (category C) was stable and independent of the number of cases in categories A and B. The present study shows that repeated molecular typing can help identify variations in the epidemiology of P. aeruginosa in ICU patients and guide infection control measures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A character network represents relations between characters from a text; the relations are based on text proximity, shared scenes/events, quoted speech, etc. Our project sketches a theoretical framework for character network analysis, bringing together narratology, both close and distant reading approaches, and social network analysis. It is in line with recent attempts to automatise the extraction of literary social networks (Elson, 2012; Sack, 2013) and other studies stressing the importance of character- systems (Woloch, 2003; Moretti, 2011). The method we use to build the network is direct and simple. First, we extract co-occurrences from a book index, without the need for text analysis. We then describe the narrative roles of the characters, which we deduce from their respective positions in the network, i.e. the discourse. As a case study, we use the autobiographical novel Les Confessions by Jean-Jacques Rousseau. We start by identifying co-occurrences of characters in the book index of our edition (Slatkine, 2012). Subsequently, we compute four types of centrality: degree, closeness, betweenness, eigenvector. We then use these measures to propose a typology of narrative roles for the characters. We show that the two parts of Les Confessions, written years apart, are structured around mirroring central figures that bear similar centrality scores. The first part revolves around the mentor of Rousseau; a figure of openness. The second part centres on a group of schemers, depicting a period of deep paranoia. We also highlight characters with intermediary roles: they provide narrative links between the societies in the life of the author. The method we detail in this complete case study of character network analysis can be applied to any work documented by an index. Un réseau de personnages modélise les relations entre les personnages d'un récit : les relations sont basées sur une forme de proximité dans le texte, l'apparition commune dans des événements, des citations dans des dialogues, etc. Notre travail propose un cadre théorique pour l'analyse des réseaux de personnages, rassemblant narratologie, close et distant reading, et analyse des réseaux sociaux. Ce travail prolonge les tentatives récentes d'automatisation de l'extraction de réseaux sociaux tirés de la littérature (Elson, 2012; Sack, 2013), ainsi que les études portant sur l'importance des systèmes de personnages (Woloch, 2003; Moretti, 2011). La méthode que nous utilisons pour construire le réseau est directe et simple. Nous extrayons les co-occurrences d'un index sans avoir recours à l'analyse textuelle. Nous décrivons les rôles narratifs des personnages en les déduisant de leurs positions relatives dans le réseau, donc du discours. Comme étude de cas, nous avons choisi le roman autobiographique Les Confessions, de Jean- Jacques Rousseau. Nous déduisons les co-occurrences entre personnages de l'index présent dans l'édition Slatkine (Rousseau et al., 2012). Sur le réseau obtenu, nous calculons quatre types de centralité : le degré, la proximité, l'intermédiarité et la centralité par vecteur propre. Nous utilisons ces mesures pour proposer une typologie des rôles narratifs des personnages. Nous montrons que les deux parties des Confessions, écrites à deux époques différentes, sont structurées autour de deux figures centrales, qui obtiennent des mesures de centralité similaires. La première partie est construite autour du mentor de Rousseau, qui a symbolisé une grande ouverture. La seconde partie se focalise sur un groupe de comploteurs, et retrace une période marquée par la paranoïa chez l'auteur. Nous mettons également en évidence des personnages jouant des rôles intermédiaires, et de fait procurant un lien narratif entre les différentes sociétés couvrant la vie de l'auteur. La méthode d'analyse des réseaux de personnages que nous décrivons peut être appliquée à tout texte de fiction comportant un index.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèseDrug uptake in a rodent sarcoma model after intravenous injection or isolated lungperfusion of free/liposomal doxorubicinIntroductionLa distribution de doxorubicine libre et doxorubicin liposomale pegylée (Liporubicin?) a été comparée après administration intraveineuse ou application via perfusion isolée du poumon (ILP) dans le parenchyme pulmonaire et dans la tumeur des poumons de rongeurs, porteurs d'une tumeur sarcomateuse.Matériel et méthodeUne tumeur sarcomateuse unique a été générée dans le poumon gauche de 36 rongeurs (Fisher rats) suivie, 10 jours plus tard, par application de doxorubicine ou Liporubicin? soit par perfusion isolée du poumon (n = 20) ou administration intraveineuse (n = 12). Deux différentes concentrations ont été utilisées (100 μg et 400 pg) à doses équimolaires pour les deux formulations de doxorubicine. La concentration des agents cytostatiques ont été mesurées dans la tumeur et le parenchyme pulmonaire à l'aide de chromatographic (HPLC).RésultatsLes résultats indiquent que pour doxorubicine libre, le taux de concentration dans la tumeur et le parenchyme pulmonaire est 3 fois (dosage de 100 μ§) et 10 fois (dosage de 400 plus élevé après ILP par rapport à l'administration intraveineuse. En revanche, pour Liporubicin , le taux de concentration est similaire dans la tumeur et le parenchyme pulmonaire entre ILP et administration intraveineuse, pour les deux doses appliquées.ConclusionPour ILP et administration intraveineuse, le ratio entre accumulation de l'agent cytostatique dans la tumeur versus dans le parenchyme pulmonaire a été comparé pour les deux formulations de doxorubicine ainsi que pour les deux dosages. Pour les deux formulations et dosages de doxorubicine, ILP aboutit à un ratio plus élevé par rapport à l'administration intraveineuse. Cependant, pour les deux formulations et dosages de doxorubicine, ILP résulte également en une distribution de l'agent cytostatique plus hétérogène dans le parenchyme pulmonaire comparé à l'administration intraveineuse.En résumé, l'application de doxorubicine par ILP aboutit donc à une accumulation tumorale élevée et à une augmentation du ratio tumeur-parenchyme pulmonaire, mais en même temps également à une distribution plus hétérogène dans le parenchyme pulmonaire par rapport à l'application intraveineuse. Ceci a été observé pour les deux formulations de doxorubicine et pour les deux dosages appliqué.