991 resultados para Tel dan bytdwd
Resumo:
La 3,4-Metilendioximetanfetamina (MDMA, éxtasis) es un derivado anfetamínico sintético ampliamente usado como droga recreativa, que produce neurotoxicidad serotonérgica en animales y posiblemente también en humanos. El mecanismo subyacente de neurotoxicidad, incluye la formación de especies reactivas de oxigeno (ROS), pero la fuente de generación de estos es un punto de controversia. Se postula que la neurotoxicidad inducida por la MDMA es mediada por la formación de metabolitos bioreactivos. Específicamente, los metabolitos primarios de tipo catecol, la 3,4- dihidroximetanfetamina (HHMA) y la 3,4-dihidroxianfetamina (HHA), que luego dan lugar a la formación de conjugados con el glutatión y la N-acetilcisteína, y que conservan la capacidad de entrar en el ciclo redox y presentan neurotoxicidad serotonérgica en ratas. Aunque la presencia de dichos metabolitos se demostró recientemente en microdialisados de cerebros de ratas, su formación en humanos no se ha reportado aun. Este trabajo describe la detección de N-acetil-cisteína-HHMA (NAC-HHMA) y N-acetil-cisteína-HHA (NAC-HHA) en orina humana de 15 consumidores recreacionales de MDMA (1.5 mg/kg) en un entorno controlado. Los resultados revelan que en las primeras 4 horas después del consumo de MDMA aproximadamente el 0.002% de la dosis administrada es recuperada como aductos tioéter. Los polimorfismos genéticos en la expresión de las enzimas CYP2D6 y COMT, que en conjunto son las principales determinantes de los niveles estables de HHMA y HHA, posiblemente expliquen la variabilidad interindividual observada en la recuperación de la NAC-HHMA y la NAC-HHA en orina. Resumiendo, por primera vez se demuestra la formación de aductos tioéteres neurotóxicos de la MDMA en humanos. Estos resultados apoyan la hipótesis de que la bioactivación de la MDMA a metabolitos neurotóxicos es el mecanismo relevante para la generación de la neurotoxicidad en humanos.
Resumo:
Acute cardiovascular dysfunction occurs perioperatively in more than 20% of cardiosurgical patients, yet current acute heart failure (HF) classification is not applicable to this period. Indicators of major perioperative risk include unstable coronary syndromes, decompensated HF, significant arrhythmias and valvular disease. Clinical risk factors include history of heart disease, compensated HF, cerebrovascular disease, presence of diabetes mellitus, renal insufficiency and high-risk surgery. EuroSCORE reliably predicts perioperative cardiovascular alteration in patients aged less than 80 years. Preoperative B-type natriuretic peptide level is an additional risk stratification factor. Aggressively preserving heart function during cardiosurgery is a major goal. Volatile anaesthetics and levosimendan seem to be promising cardioprotective agents, but large trials are still needed to assess the best cardioprotective agent(s) and optimal protocol(s). The aim of monitoring is early detection and assessment of mechanisms of perioperative cardiovascular dysfunction. Ideally, volume status should be assessed by 'dynamic' measurement of haemodynamic parameters. Assess heart function first by echocardiography, then using a pulmonary artery catheter (especially in right heart dysfunction). If volaemia and heart function are in the normal range, cardiovascular dysfunction is very likely related to vascular dysfunction. In treating myocardial dysfunction, consider the following options, either alone or in combination: low-to-moderate doses of dobutamine and epinephrine, milrinone or levosimendan. In vasoplegia-induced hypotension, use norepinephrine to maintain adequate perfusion pressure. Exclude hypovolaemia in patients under vasopressors, through repeated volume assessments. Optimal perioperative use of inotropes/vasopressors in cardiosurgery remains controversial, and further large multinational studies are needed. Cardiosurgical perioperative classification of cardiac impairment should be based on time of occurrence (precardiotomy, failure to wean, postcardiotomy) and haemodynamic severity of the patient's condition (crash and burn, deteriorating fast, stable but inotrope dependent). In heart dysfunction with suspected coronary hypoperfusion, an intra-aortic balloon pump is highly recommended. A ventricular assist device should be considered before end organ dysfunction becomes evident. Extra-corporeal membrane oxygenation is an elegant solution as a bridge to recovery and/or decision making. This paper offers practical recommendations for management of perioperative HF in cardiosurgery based on European experts' opinion. It also emphasizes the need for large surveys and studies to assess the optimal way to manage perioperative HF in cardiac surgery.
Resumo:
Esta investigación analiza las desigualdades de las intensidades energéticas entre países de la OCDE, su evolución y sus causas. Estas intensidades constituyen uno de los principales factores determinantes de las emisiones per cápita y, por tanto, de las diferencias que se dan entre países y grupos de países. Se desarrolla una metodología que permite la descomposición de la desigualdad en los consumos de energía per cápita en factores explicativos, además de analizar la contribución de diferentes grupos de países. Destaca que, si bien las diferencias en afluencia económica son el factor más relevante en la explicación las desigualdades en el consumo energético per cápita, la desigualdad en intensidad energética juega un papel prominente en su reducción en el periodo analizado. A continuación, se desarrolla una metodología que permite determinar la importancia de las diferentes estructuras productivas y de las diferencias en eficiencia energética en el mayor o menor uso de energía por unidad de PIB en los diferentes países y grupos de países. Los resultados muestran que la especialización productiva gana peso en la explicación de las desigualdades en las intensidades energéticas, mientras que se da una importante tendencia a la igualación de la eficiencia energética entre países sector a sector. Esta tendencia explicaría, a su vez, el peso decreciente de la intensidad energética como factor explicativo de las desigualdades en consumos energéticos.
Resumo:
Le retard de croissance intra-utérin (RCIU) est défini par une taille et un poids inférieurs au P10 pour l'âge gestationnel. Il est caractérisé, entre autre par une altération de la croissance foetale aboutissant à une résistance à l'hormone de croissance (HC). Bien que la majorité des sujets présente un certain rattrapage en taille, certains développent un retard de croissance ultérieur permanent. L'idée est donc née de traiter ces sujets par haute dose d'HC biosynthétique. La question des risques d'un tel traitement s'est posée en raison de l'effet diabétogène de l'HC et des modifications qu'elle peut induire sur la masse maigre, la masse grasse et la densité osseuse. Le but de l'étude a été d'évaluer l'impact sur la croissance et sur le volet métabolique. Dix enfants prépubères ayant présenté un RCIU sans croissance de rattrapage spontanée ont été traités par HC recombinante à des doses supra physiologiques (53-67 g/kg/jour). La taille, le poids, la taille assise ont été mesurés et des dosages d'IGF1, IGFBP3, glycémie et insuline ont été faits sur une base semestrielle alors qu'une densitométrie osseuse a été faite annuellement sur une période de 3 ans. Le gain en taille a été spectaculaire (+ 1.78 DS), correspondant à plus de 10 cm (p < 0.001). Sous traitement, l'insulinémie et le HOMA ont augmenté sans que ces augmentations soient significatives. La tolérance glucidique est restée dans la norme au prix d'une augmentation de la sécrétion d'insuline. La masse grasse a diminué alors que la masse maigre et la densité osseuse ont augmenté de façon significative. Ces résultats correspondent aux travaux d'autres groupes. Il reste à démontrer que l'hyperinsulinisme transitoire induit par l'HC n'ait pas d'effet néfaste à long terme et en particulier sur le risque de développer ou aggraver un syndrome métabolique à l'âge adulte.
Resumo:
This thesis argues that insofar as we want to account for the normative dimension of social life, we must be careful to avoid construing that normative dimension in such a way as to exclude that which the second-person perspective reveals is important to social life and our ability to participate in it.¦The second-person perspective reveals that social life ought to be understood as a mix or balance of the regular and the irregular, where, in addition, those one interacts with are always to some extent experienced as other in a way that is neither immediately, nor perhaps ultimately, understandable. For persons to be able to participate in social life, conceived of in this way, they must have abilities that allow them to be, to some extent, hesitant and tentative in their relations with others, and thus tolerant of ambiguity, uncertainty and unpredictability, and responsive to and capable of learning from the otherness of others in the course of interacting with them.¦Incorporating the second-person perspective means we have to make some changes to the way we think about the normative in general, and the normative dimension of social life in particular. It does not mean giving up on the distinction between the normative and the regular - that continues to be fundamentally important but it does mean not excluding, as part of social life and as worthy of explanation, all that which is irregular. A radical way of putting it would be to say that there must be a sense in which the irregular is part of the normative. A less radical way, and the way adopted by this thesis, is to say that any account of the normative dimension of social life must not be such as to exclude the importance of irregularity from social life. This will mean 1) not characterising conventions, norms and rules as determinants of appropriateness and inappropriateness; 2) not thinking of them as necessary; 3) not thinking of them as necessarily governing minds; and 4) not thinking of them as necessarily shared.¦-¦L'argument principal de la thèse est que, pour rendre compte de la dimension normative de la vie sociale, il faut veiller à ne pas exclure la perspective de la deuxième personne - une perspective importante pour comprendre la vie sociale et la capacité requise pour y participer.¦Cette perspective nous permet d'imaginer la vie sociale comme un mélange ou un équilibre entre le régulier et l'irrégulier, l'interaction entre des individus pouvant être appréhendée comme l'expérience de chaque personne avec «l'autre» d'une manière qui n'est pas immédiatement compréhensible, et qui ne peut pas, peut-être, être ultimement comprise. Pour participer à la vie sociale, l'on doit avoir la capacité de rester hésitant et «réactif» dans ses relations avec les autres, de rester ouvert à leur altérité et de tolérer l'ambiguïté, l'incertitude et l'imprévisibilité des interactions sociales.¦Adopter une perspective «à la deuxième personne» conduit à une autre manière de penser la normativité en général, et la dimension normative de la vie sociale en particulier. Cela ne veut pas dire qu'il faut abandonner la distinction entre le normatif et le régulier - une distinction qui garde une importance fondamentale - mais qu'il faut reconnaître l'irrégulier comme faisant partie de la vie sociale et comme étant digne, en tant que tel, d'être expliqué. Une conception radicale pourrait même concevoir l'irrégulier comme faisant partie intégrante de la normativité. Une approche moins radicale, qui est celle adoptée dans cette thèse, est de dire que tout compte-rendu de la dimension normative de la vie sociale doit prendre en considération l'importance de l'irrégularité dans la vie sociale. Une telle approche implique que les conventions, normes et règles (1) ne déterminent pas ce qui est approprié ou inapproprié; (2) ne sont pas toujours nécessaires ; (3) ne gouvernent pas le fonctionnement de l'esprit ; et (4) ne sont pas nécessairement partagées.
Resumo:
Abstract: The increasingly high hygienic standards characterizing westernized societies correlate with an increasingly high prevalence of allergic disease. Initially based on these observations, the hygiene hypothesis postulates that reduced microbial stimulation during infancy impairs the immune system development and increases the risk of allergy. Moreover, there is increasing evidence that the crosstalk existing between the intestine and the resident microbiota is crucial for gut homeostasis. In particular, bacterial colonization of the gut affects the integrity of the gut barrier and stimulates the development of the gut associated immune tissue, both phenomena being essential for the immune system to mount a controlled response to food antigens. Therefore, alterations in the microbial colonization process, by compromising the barrier homeostasis, may increase the risk of food allergy. In this context, antibiotic treatment, frequently prescribed during infancy, affects gut colonization by bacteria. However, little is known about the impact of alterations in the colonization process on the maturation of the gut barrier and on the immunological response to oral antigens. The objective of this work was to determine the impact of a commercial antibiotic preparation employed in pediatric settings on the gut barrier status at the critical period of the suckling/weaning transition and to evaluate the physiological consequences of this treatment in terms of immune response to food antigens. We established an antibiotic-treated suckling rat model relevant to the pediatric population in terms of type, dose and route of administration of the antibiotic and of changes in the patterns of microbial colonization. Oral tolerance to a novel luminal antigen (ovalbumin) was impaired when the antigen was introduced during antibiotic treatment. These results paralleled to alterations in the intestinal permeability to macromolecules and reduced intestinal expression of genes coding for the major histocomptatibility complex II molecules, which suggest a reduced capacity of antigen handling and presentation in the intestine of the antibiotic-treated animals. In addition, low luminal IgA levels and reduced intestinal expression of genes coding for antimicrobial proteins suggest that protection against pathogens was reduced under antibiotic treatment. In conclusion, we observed in suckling rats that treatment with abroad-spectrum antibiotic commonly used in pediatric practices reduced the capacity of the immune system to develop tolerance. The impact of the antibiotic treatment on the immune response to the antigen-was likely mediated by the alterations of the gut microbiota, through impairment in the mechanisms of antigen handling and presentation. This work reinforces the body of data supporting a key role of the intestinal microbiota modulating the risk of allergy development and leads us to propose that the introduction of new food antigens should be avoided during antibiotic treatment in infants. Résumé: L'augmentation du niveau d'hygiène caractérisant les sociétés occidentales semble être fortement corrélée avec l'augmentation des cas d'allergie dans ces pays. De cette observation est née l'hypothèse qu'une diminution des stimuli microbiens pendant l'enfance modifie le développement du système immunitaire augmentant ainsi le risque d'allergie. En ce sens, un nombre croissant de données indiquent que les interactions existant entre l'intestin et les bactéries résidantes sont cruciales pour l'équilibre du système. En effet, la présence de bactéries dans l'intestin affecte l'intégrité de sa fonction de barrière et stimule le développement du système immunitaire intestinal. Ces deux paramètres étant essentiels à la mise en place d'une réponse contrôlée vis à vis d'un antigène reçu oralement, toute modification du processus naturel de colonisation compromettant l'équilibre intestinal pourrait augmenter le risque d'allergie. Les traitements aux antibiotiques, fréquemment prescrits en pédiatrie, modifient de façon conséquente le processus de colonisation bactérienne. Cependant peu de données existent concernant l'impact d'une altération du processus de colonisation sur la maturation de la barrière intestinale et de la réponse immunitaire dirigée contre un antigène. L'objectif de ce travail était de déterminer l'impact d'un antibiotique commercial et employé en pédiatrie sur l'état de la barrière intestinale au moment critique du sevrage et d'évaluer les conséquences physiologiques d'un tel traitement sur la réponse immune à un antigène alimentaire. Nous avons mis en place un modèle de rats allaités, traités à l'antibiotique, le plus proche possible des pratiques pédiatriques, en terme de nature, dose et voie d'administration de l'antibiotique. Nous avons constaté que l'établissement de la tolérance orale à un nouvel antigène (l'ovalbumine) est altéré quand celui-ci est donné pour la première fois au cours du traitement antibiotique. Ces résultats coïncident avec une diminution de la perméabilité intestinale aux macromolécules, ainsi qu'avec une diminution de l'expression des gènes codant pour les molécules du complexe majeur d'histocomptatibilité de classe II, suggérant une modification de l'apprêtement et de la présentation de l'antigène au niveau intestinal chez les rats traités à l'antibiotique. De plus, un faible taux d'IgA et une diminution de l'expression des gènes codant pour des protéines antimicrobiennes, observés après l'administration d'antibiotique, laissent à penser que la protection contre un pathogène est diminuée lors d'un traitement antibiotique. En conclusion, nous avons observé qu'un traitement antibiotique à large spectre d'activité, couramment utilisé en pédiatrie, réduit la capacité d'induction de la tolérance orale chez le rat allaité. L'impact du traitement antibiotique sur la réponse immune semble induite par l'altération de la flore intestinale via son effet sur les mécanismes d'apprêtement et de présentation de l'antigène. Ce travail renforce l'ensemble des données existantes qui accorde à la flore intestinale un rôle clef dans la modulation du risque de développement d'allergie et nous amène à recommander d'éviter l'introduction d'un nouvel aliment lorsqu'un enfant est traité aux antibiotiques.
Resumo:
Résumé: Relevant du domaine des représentations, cette thèse porte sur la reconstitution du processus relatif à l'invention des notions liées au «coeur du continent » asiatique, distinguant deux phases: avant et après l'apparition de la dénomination Asie centrale. Partant de l'idée que dans le processus de création de cet objet d'investigation deux actes restent primordiaux - le découpage d'un continuum géographique et culturel et la nomination des parties extraites cette étude cherche à reconstituer selon quels critères et en fonction de quelles justifications et de quels arguments, il a été possible de parvenir, via des mots, à créer les notions centre-asiatiques, afin de faire valoir des «choses» en les représentant verbalement ou graphiquement comme réelles. Cette optique invite, dans une perspective d'histoire des sciences, à travers des images changeantes, à interroger l'Asie centrale en tant qu'objet d'étude, tel qu'il a été historiquement inventé, construit et représenté par les voyageurs et les scientifiques, sans négliger l'analyse du processus politique qui a réussi à insérer des lignes-frontières dans cet espace. Cette investigation aidera à mieux comprendre le sens épistémologique des expressions relatives à l'Asie centrale, souvent imprégnées d'une vision eurocentriste, lors de la progression des connaissances sur la région, en faisant revivre des courants de pensées multiples afin de pouvoir saisir la logique du développement des idées et comprendre quel rôle ces limites centre-asiatiques inventées, qui ne sont que la codification temporelle de certaines données, jouent dans les investigations scientifiques. Abstract: This dissertation proposes a reconstitution of the process of construction of the concepts relating to the Asia's «Heart of the Continent». It is divided into two parts: I: before the invention of the Central. Asia concept, from Antiquity until nineteenth century; II: the notion after this event. The study is mainly devoted to an epistemologic analysis of the arguments used during the delineation and the designation of this space
Dynamic stackelberg game with risk-averse players: optimal risk-sharing under asymmetric information
Resumo:
The objective of this paper is to clarify the interactive nature of the leader-follower relationship when both players are endogenously risk-averse. The analysis is placed in the context of a dynamic closed-loop Stackelberg game with private information. The case of a risk-neutral leader, very often discussed in the literature, is only a borderline possibility in the present study. Each player in the game is characterized by a risk-averse type which is unknown to his opponent. The goal of the leader is to implement an optimal incentive compatible risk-sharing contract. The proposed approach provides a qualitative analysis of adaptive risk behavior profiles for asymmetrically informed players in the context of dynamic strategic interactions modelled as incentive Stackelberg games.
Resumo:
The objective of this paper is to re-examine the risk-and effort attitude in the context of strategic dynamic interactions stated as a discrete-time finite-horizon Nash game. The analysis is based on the assumption that players are endogenously risk-and effort-averse. Each player is characterized by distinct risk-and effort-aversion types that are unknown to his opponent. The goal of the game is the optimal risk-and effort-sharing between the players. It generally depends on the individual strategies adopted and, implicitly, on the the players' types or characteristics.
Resumo:
AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.
Resumo:
El objetivo de la presente investigación es analizar el tratamiento que algunos de los diccionarios generales monolingües del español aparecidos en los últimos diez años han dado al fenómeno de las colocaciones léxicas, a saber, aquellas combinaciones de palabras que, desde el punto de vista de la norma, presentan ciertas restricciones combinatorias, esencialmente de carácter semántico, impuestas por el uso (Corpas: 1996). Los repertorios objeto de análisis han sido: el "Diccionario Salamanca de la lengua española", dirigido por Juan Gutiérrez (1996); el "Diccionario del español actual", de Manuel Seco, Olimpia Andrés y Gabino Ramos (1999); la vigésima segunda edición del diccionario de la RAE (2001); y el "Gran diccionario de uso del español actual. Basado en el corpus Cumbre", dirigido por Aquilino Sánchez (2001). Nuestro estudio se ha fundamentado en un corpus de 52 colocaciones léxicas confeccionado a partir del análisis de las subentradas contenidas en la letra "b" de cada uno de los diccionarios seleccionados. Posteriormente, hemos examinado las entradas correspondientes a cada uno de los elementos que constituyen la colocación (base y colocativo) con el fin de observar si los diccionarios estudiados dan cuenta de estas mismas combinaciones en otras partes del artículo lexicográfico, como son las definiciones o los ejemplos. A la hora de analizar la información lexicográfica hemos centrado nuestra atención en cuatro aspectos: a) la información contenida en las páginas preliminares de cada una de las obras; b) la ubicación de las colocaciones en el artículo lexicográfico; c) la asignación de la colocación a un artículo determinado; y d) la marcación gramatical.
Resumo:
Jeanne Favret-Saada a bousculé un présupposé courant en sciences sociales faisant équivaloir le regard scientifique avec le fait d'observer le phénomène investigué depuis l'extérieur. Or, un tel régime de description peine à restituer des pratiques qui semblent exotiques, voire incroyables pour l'observateur détaché, alors qu'elles apparaissent crédibles aux acteurs sociaux. À ce point, l'engagement de l'ethnographe - jusque dans ses affects - s'avère central pour ressaisir la vraisemblance d'un monde social - sans pour autant endosser son ontologie. Cet article explore cette problématique en s'intéressant à la « prophétie » charismatique comme modalité, pour des évangéliques, de faire saillir la présence de Dieu à même leur vie et au sein du monde. Couplant une phénoménologie de l'expérience religieuse à une approche pragmatiste, on s'interrogera sur les conséquences politiques, pour la communauté nationale, de ce surgissement de la divinité.
Resumo:
A gradual increase in Earth's surface temperatures marking the transition from the late Paleocene to early Eocene (55.8±0.2Ma), represents an extraordinary warming event known as Paleocene-Eocene Thermal Maximum (PETM). Both marine and continental sedimentary records during this period reveal evidences for the massive injection of isotopically light carbon. The carbon dioxide injection from multiple potential sources may have triggered the global warming. The importance of the PETM studies is due to the fact that the PETM bears some striking resemblances to the human-caused climate change unfolding today. Most notably, the culprit behind it was a massive injection of heat-trapping greenhouse gases into the atmosphere and oceans, comparable in volume to what our persistent burning of fossil fuels could deliver in coming centuries. The exact knowledge of what went on during the PETM could help us to foresee the future climate change. The response of the oceanic and continental environments to the PETM is different. Many factors might control the response of the environments to the PETM such as paleogeography, paleotopography, paleoenvironment, and paleodepth. To better understand the mechanisms triggering PETM events, two different environments were studied: 1) shallow marine to inner shelf environment (Wadi Nukhul, Sinai; and the Dababiya GSSP, Luxor, Egypt), and 2) terrestrial environments (northwestern India lignite mines) representing wetland, and fluvial environments (Esplugafreda, Spain) both highlighting the climatic changes observed in continental conditions. In the marine realm, the PETM is characterized by negative ö13Ccar and ô13Corg excursions and shifts in Ô15N to ~0%o values above the P/E boundary and persisting along the interval suggesting a bloom and high production of atmospheric N2-fixers. Decrease in carbonate contents could be due to dissolution and/or dilution by increasing detrital input. High Ti, K and Zr and decreased Si contents at the P/E boundary indicate high weathering index (CIA), which coincides with significant kaolinite input and suggests intense chemical weathering under humid conditions at the beginning of the PETM. Two anoxic intervals are observed along the PETM. The lower one may be linked to methane released from the continental shelf with no change in the redox proxies, where the upper anoxic to euxinic conditions are revealed by increasing U, Mo, V, Fe and the presence of small size pyrite framboids (2-5fim). Productivity sensitive elements (Cu, Ni, and Cd) show their maximum concentrated within the upper anoxic interval suggesting high productivity in surface water. The obtained data highlight that intense weathering and subsequent nutrient inputs are crucial parameters in the chain of the PETM events, triggering productivity during the recovery phase. In the terrestrial environments, the establishment of wetland conditions and consequence continental climatic shift towards more humid conditions led to migration of modern mammals northward following the extension of the tropical belts. Relative ages of this mammal event based on bio-chemo- and paleomagnetic stratigraphy support a migration path originating from Asia into Europe and North America, followed by later migration from Asia into India and suggests a barrier to migration that is likely linked to the timing of the India-Asia collision. In contrast, at Esplugafereda, northeastern Spain, the terrestrial environment reacted differently. Two significant S13C shifts with the lower one linked to the PETM and the upper corresponding to the Early Eocene Thermal Maximum (ETM2); 180/160 paleothermometry performed on two different soil carbonate nodule reveal a temperature increase of around 8°C during the PETM. The prominent increase in kaolinite content within the PETM is linked to increased runoff and/or weathering of adjacent and coeval soils. These results demonstrate that the PETM coincides globally with extreme climatic fluctuations and that terrestrial environments are very likely to record such climatic changes. - La transition Paléocène-Eocène (55,8±0,2 Ma) est marquée par un réchauffement extraordinaire communément appelé « Paleocene-Eocene Thermal Maximum » (PETM). Les données géochimiques caractérisant les sédiments marins et continentaux de cette période indiquent que ce réchauffement a été déclenché par une augmentation massive de CO2 lié à la déstabilisation des hydrates de méthane stockés le long des marges océaniques. L'étude des événements PETM constitue donc un bon analogue avec le réchauffement actuel. Le volume de CO2 émis durant le PETM est comparable avec le CO2 lié à l'activité actuelle humaine. La compréhension des causes du réchauffement du PETM peut être cruciale pour prévoir et évaluer les conséquences du réchauffement anthropogénique, en particulier les répercussions d'un tel réchauffement sur les domaines continentaux et océaniques. De nombreux facteurs entrent en ligne de compte dans le cas du PETM, tels que la paléogéographie, la paléotopographie et les paléoenvironnement. Pour mieux comprendre les réponses environnementales aux événements du PETM, 2 types d'environnements ont été choisis : (1) le domaine marin ouvert mais relativement peu profond (Wadi Nukhul. Sinai, Dababiya, Luxor, Egypte), (2) le milieu continental marécageux humide (mines de lignite, Inde) et fluviatile, semi-aride (Esplugafreda, Pyrénées espagnoles). Dans le domaine marin, le PETM est caractérisé par des excursions négatives du ô13Ccar et ô13Corg et un shift persistant des valeurs de 815N à ~ 0 %o indiquant une forte activité des organismes (bactéries) fixant l'azote. La diminution des carbonates observée durant le PETM peut-être due à des phénomènes de dissolution ou une augmentation des apports terrigènes. Des taux élevés en Ti, K et Zr et une diminution des montants de Si, reflétés par des valeurs des indices d'altération (CIA) qui coïncident avec une augmentation significative des apports de kaolinite impliquent une altération chimique accrue, du fait de conditions plus humides au début du PETM. Deux événements anoxiques globaux ont été mis en évidence durant le PETM. Le premier, situé dans la partie inférieur du PETM, serait lié à la libération des hydrates de méthane stockés le long des talus continentaux et ne correspond pas à des variations significatives des éléments sensibles aux changements de conditions redox. Le second est caractérisé par une augmentation des éléments U, Mo, V et Fe et la présence de petit framboids de pyrite dont la taille varie entre 2 et 5pm. Le second épisode anoxique est caractérisé par une forte augmentation des éléments sensibles aux changements de la productivité (Cu, Ni et Co), indiquant une augmentation de la productivité dans les eaux de surface. Les données obtenues mettent en évidence le rôle crucial joué par l'altération et les apports en nutriments qui en découlent. Ces paramètres sont cruciaux pour la succession des événements qui ont conduit au PETM, et plus particulièrement l'augmentation de la productivité dans la phase de récupération. Durant le PETM, le milieu continental est caractérisé par l'établissement de conditions humides qui ont facilité voir provoqué la migration des mammifères modernes qui ont suivi le déplacement de ces ceintures climatiques. L'âge de cette migration est basé sur des arguments chimiostratigraphiques (isotopes stables), biostratigraphiques et paléomagnétiques. Les données bibliographiques ainsi que celles que nous avons récoltées en Inde, montrent que les mammifères modernes ont d'abord migré depuis l'Asie vers l'Europe, puis dans le continent Nord américain. Ces derniers ne sont arrivés en Inde que plus tardivement, suggérant que le temps de leur migration est lié à la collision Inde-Asie. Dans le Nord-Est de l'Espagne (Esplugafreda), la réponse du milieu continental aux événements PETM est assez différente. Comme en Inde, deux excursions signicatives en ô13C ont été observées. La première correspond au PETM et la seconde est corrélée avec l'optimum thermique de l'Eocène précoce (ETM2). Les isotopes stables de l'oxygène mesurés 2 différents types de nodules calcaires provenant de paléosols suggère une augmentation de 10°C pendant le PETM. Une augmentation simultanée des taux de kaolinite indique une intensification de l'altération chimique et/ou de l'érosion de sols adjacents. Ces résultats démontrent que le PETM coïncide globalement avec des variations climatiques extrêmes qui sont très aisément reconnaissables dans les dépôts continentaux.
Resumo:
Cette thèse de doctorat porte sur l'endurant travail d'interprétation auquel Martin Heidegger (1889-1976) s'est livré à propos de la pensée de Hegel (1770-1831), l'un des représentants de ce que l'on appelle « l'idéalisme allemand ». Ce travail d'interprétation résulte et prend place dans ce que Heidegger entend par le mot allemand Aus-einander-setzung : non pas la recherche de points communs entre deux pensées, par-delà des différences particulières qu'il s'agirait dès lors dépasser, mais au contraire la mise en évidence de leurs différends au sein même d'une appartenance commune à la pensée européo-occidentale. Notre présent travail s'est donné trois tâches : reconstruire l'explication de Heidegger avec Hegel qui se déroule sur près de quarante ans et qui se trouve éparpillée dans une multitude de textes d'époques et de statuts fort divers ; réfléchir et exposer le sens et les enjeux d'une telle explication ; indiquer et mettre à l'épreuve, par une étude immanente de plusieurs textes du corpus hégélien, l'apport de la phénoménologie herméneutique heideggerienne à l'intelligibilité actuelle de la pensée hégélienne. La pensée occidentale, qui a pour nom la philosophie, s'interroge toujours d'une manière ou d'une autre à propos de l'être. Et cela, à partir de Platon, dans un mouvement métaphysique qui va de ce qui est ou de l'étant à son être, ce dernier étant lui-même compris comme le genre commun de l'étant, soit comme « étantité (ousía, Seiendheit) ». Chez Hegel, cette manière bimillénaire de s'enquérir ainsi de l'être de l'étant parvient à son aboutissement, dans une compréhension dialectico-spéculative de l'être en tant que ce processus d'autocompréhension et d'autoproduction que Hegel nomme « l'esprit absolu ». À partir de cet aboutissement, de l'être, il n'en sera plus rien pour la pensée occidentale - « dernière fumée d'une réalité s'évaporant » dira Nietzsche. C'est ce phénomène, nommé par Heidegger « l'oubli de l'être (die Seinsvergessenheit) », qui constituera pour lui la motivation centrale de sa tentative de commencer autrement à penser l'être : dans un mouvement qui ne va plus de l'étant à l'être en tant qu'étantité, mais de l'être (Sein ou Seyn) à l'étant : où cela, qui d'ores et déjà se refuse (sich verweigert) à être un étant, ouvre par là même la possibilité à l'étant d'être ce qu'il est en propre. L'être est alors pensé en tant qu'Ereignis, cela qui advient en appropriant, c'est-à-dire en conduisant l'homme et l'étant à leur propre. Notre travail distingue, dans la lecture heideggerienne de Hegel, deux grandes périodes. Cellesci sont solidaires des deux manières non-métaphysiques d'élaborer la question de l'être qui rythment le chemin de pensée de Heidegger (la première ayant abouti à une impasse) : 1°) l'élaboration horizontaletranscendantale de la question de l'être, centrée sur le premier Hauptwerk de Heidegger de 1927, Être et temps, où la question de l'être est considérée primordialement à partir de ce phénomène qu'est l'entente qu'a l'homme de son être et de son destin qui est celui d'être l'espace ouvert, le là pour l'être en général (Dasein) ; 2°) l'élaboration destinale (seynsgeschichtliche) de la question de l'être, centrée sur le deuxième Hauptwerk de Heidegger que sont les Apports à la philosophie (Beiträge zur Philosophie) (1936- 1938), où la question de l'être est considérée cette fois à partir de l'être lui-même en tant qu'Ereignis. Dans l'interprétation horizontale-transcendantale de Hegel, Heidegger oppose à l'être hégélien en tant qu'esprit absolu, éternel et infini, la transcendance finie du rapport temporel de l'homme à l'être. L'explication se concentre ainsi sur les notions de finitude (chapitre II de notre thèse), de transcendance (chapitre III) et de temporalité (chapitre IV), dans laquelle Heidegger fait jouer son interprétation de Kant contre Hegel. Dans l'interprétation destinale de Hegel, qui est l'interprétation décisive, Hegel est compris, dans la perspective de l'histoire-destinée de l'estre (die Geschichte des Seyns), comme celui qui accomplit ce qui se trouve au coeur même de cette histoire-destinée, dès Héraclite et Parménide : le refus qu'a l'homme occidental de prendre en garde la nihilité (Nichthaftigkeit) de l'être. Hegel serait ainsi celui qui accomplit l'occidental refus du refus (Verweigerung) de l'être. Heidegger repère le site de cet accomplissement hégélien dans la conception dialectico-spéculative de la négativité, laquelle en tant que « négativité absolue (absolute Negativität) » constitue le coeur et l'âme de l'être qu'est le processus de l'esprit absolu (chapitre V). L'enjeu de l'interprétation heideggerienne de Hegel devient dès lors de montrer qu'une négativité plus originaire que la négativité absolue se trouve à l'oeuvre en l'être, une négativité non dialectique que nous avons nommé la « négativité abyssale » (chapitre VII). C'est de la compréhension et l'élaboration de cette dernière que dépend la possibilité pour la pensée occidentale de surmonter une bonne fois le nihilisme - gisant au coeur de la métaphysique - tel qu'il se déchaîne actuellement dans la civilisation technique devenue aujourd'hui planétaire (chapitre VI). Tels sont selon nous le sens et l'enjeu derniers de l'explication de Heidegger avec Hegel.