999 resultados para Théorie des champs logarithmique


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé : Les relations entre un parasite et son hôte sont avant tout marquées par le coût pour l'hôte que représente la ponction de ressources au profit du parasite et ses conséquences sur les traits d'histoires de vie de l'hôte. Pour contenir la réduction de leur valeur reproductive, les hôtes ont acquis au cours de l'évolution des mécanismes soit de lutte contre les parasites, soit de réallocations des ressources. Curieusement les effets des ectoparasites sur la biologie de mammifères ont été peu étudiés. Dans une première expérience à long terme, nous avons examiné sous un angle intégratif si les puces Nosopsyllus fasciatus affectent certains paramètres physiologiques des campagnols des champs Microtus arvalis. Nous avons également testé si les puces peuvent réduire la longévité et si oui, si ce pourrait être dû à une accélération de la sénescence. Ensuite nous avons testé si la simple activation répétée du système immunitaire comme lors d'une infestation chronique pouvait aussi réduire la longévité. Dans une dernière expérience, nous avons d'abord testé si l'infestation par des puces de jeunes campagnols au stade néonatal (21 jours) pouvait modifier leur développement et leur phénotype adulte. Puis nous avons testé si la modification du phénotype adulte est une réponse prédite et potentiellement adaptative pour minimiser les effets des puces à l'âge adulte. Nos résultats montrent que l'infestation par des puces réduit la croissance subadulte, induit une forte anémie et une immunodépression, et augmente le métabolisme de repos. De plus les puces réduisent la longévité et la taille des testicules, réduisant fortement le succès reproducteur potentiel des individus parasités. La taille finale, c'est-à-dire le développement pré-adulte, détermine en grande part la longévité. La réduction de longévité ne devrait pas être due à l'investissement au profit du système immunitaire car l'activation chronique seule du système immunitaire ne réduit pas la longévité. L'infestation néonatale retarde légèrement le développement mais surtout modifie l'hématocrite et réduit les performances locomotrices des campagnols plus de 3 mois après l'infestation. Les effets immédiats du parasitisme sur la physiologie semblent bien supérieurs comparés aux effets à long terme. Nous n'avons pas d'éléments permettant d'affirmer que le parasitisme néonatal prépare les campagnols à faire face aux puces à l'âge adulte. Au contraire, le parasitisme néonatal interagit sur le parasitisme adulte pour augmenter le métabolisme de repos. Cette thèse offre une vision intégrative des mécanismes par lesquels les puces peuvent affecter la valeur reproductive de leurs hôtes. De façon générale, ces résultats 35 montrent l'importance des puces comme force de sélection chez les campagnols. Il est indispensable de prendre en compte les ectoparasites dans l'étude de l'écologie et des dynamiques de populations chez les mammifères. Summary : The relationship between a parasite and its host is fundamentally marked by the costs for host of the withdrawals of resources by parasite and the subsequent reduction in host life-history traits. Hosts have evolved a number of strategies to reduce these costs, either by fighting against the parasite directly or by reallocating resources to reduce costs on lifetime reproductive value. The effects of ectoparasites on burrowing mammals have been scarcely studied. In a first long-term experiment, we examined how fleas Nosopsyllus fasciatus affect physiological levels of the common vole, Microtus arvalis. We also examined whether fleas reduce longevity and if so, if it is due to an early senescence pattern. Then we tested if experimental activation of the immune system by repeated injections of an antigen could result in a shorter longevity. In the last experiment, we tested if short-lasting neonatal parasitism can have long-term effects on phenotype, and if these effects could induce a predictive response to reduce damages when parasitized at the adult stage. We found that parasitism by flea reduced subadult growth, induced anaemia and immunodepression, and increased energy consumption even when resting. Moreover fleas reduce longevity and testes size associated to splenomegaly, suggesting an overall reduction in fitness but we did not find any pattern of accelerated senescence explaining the early death of parasitized voles compared to non-parasitzed. The cost of mounting an immune response throughout life does not impair longevity, suggesting that it is the cost of parasitism that limits the longevity and not the immune investment. Neonatal infestation by fleas has long-term effects on physiology and reduces motor activity more than 3 months after infestation. The modification of physiology due to long-term effects seems weak compared to the immediate effects of adult infestation. We found no evidence that neonatal parasitism prepares voles to mount a predictive adaptive response in order to reduce effects of fleas on fitness components. On the contrary, neonatal parasitism seems to worsen the effect of adult parasitism. This thesis offers an integrative view of mechanisms by which fleas affect their host at the individual level. Overall, our results demonstrate the importance of fleas as a selective force in voles. These results highlight the importance of ectoparasitism in ecology of micromarnrnals and suggest a role in the dynamic of host populations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dubbing rassemble une série d'études inédites en langue française ou allemande menées par des chercheurs et chercheuses qui se sont penchés sur les rapports entre le mot écrit ou parlé et les images animées, en particulier dans le cas de la traduction. Les questions de l'adaptation d'un film à un nouveau public-cible sont envisagées dans l'histoire du cinéma et des discours sur le doublage dans une perspective historiographique et à partir de corpus variés, du néo-réalisme italien (La Terra Trema distribué en France) aux productions japonaises récentes (anime, jeux vidéo) en passant par la Nouvelle Vague (A bout de souffle « censuré » dans sa version italienne, la voix over chez Truffaut ou Resnais). Un accent tout particulier est mis sur les premières années de la généralisation du parlant, à l'époque des « versions multiples » (telles que la version anglaise de Der Blaue Engel de Sternberg et la version française de M de Fritz Lang) et des films polyglottes (Kameradschaft de Pabst) ; à travers des études fouillées, ces films hybrides sont discutés dans leur contexte historique. Le cinéma de la modernité (Godard, Straub et Huillet) est quant à lui repensé dans sa manière d'intégrer le texte écrit et comparé sur ce point à la pratique usuelle du sous-titrage. Au-delà de l'analyse filmique, les études offrent un cadre théorique permettant de nourrir la réflexion sur les rapports entre texte et image, corps et voix dans les médias, et sur la pratique de l'adaptation audiovisuelle. Situé au croisement des aires linguistiques et des champs académiques (traductologie et histoire du cinéma), Dubbing livre une contribution originale à l'étude de l'un des facteurs importants de la diffusion des films.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction : S'il est des questions qui plongent les juristes et les médecins dans l'embarras, celle de l'information à délivrer au patient, composante de la théorie du consentement éclairé, occupe une place de choix. Depuis plusieurs années, les exigences relatives aux droits des patients, notamment le droit à l'information médicale, ont évolué parallèlement aux progrès vertigineux de la médecine et de la science. Il y a trente ans, ce principe était pratiquement inconnu de notre ordre juridique. En 1979, le Tribunal fédéral se pose formellement la question des limites du devoir d'information incombant au médecin. Soulignons qu'en 1940 déjà, les juges fédéraux avaient abordé l'existence d'un devoir d'information du thérapeute tout en niant son existence dans le cas d'espèce au motif que le patient n'aurait pas renoncé à l'intervention s'il avait été correctement informé du risque normal et minime que celle-ci comportait. Depuis lors, ce principe a été consacré par l'ensemble des législations sanitaires cantonales. La médecine humaine étant de la compétence des cantons, il a fallu attendre 1992 pour voir la création d'une norme constitutionnelle attribuant la première compétence à la Confédération dans le domaine du génie génétique et de la procréation médicalement assistée. La Confédération a ensuite reçu des compétences législatives en matière de médecine de transplantation. Enfin, un futur article 118a Cst permettant à la Confédération de légiférer dans le domaine de la recherche sur l'homme sera prochainement soumis aux votes du peuple et des cantons. Ces nouvelles lois fédérales concrétisent les principes généraux en matière d'information dégagés par le Tribunal fédéral au fil de sa jurisprudence et lui octroient une place importante s'agissant de domaines pointus où l'individu n'est que profane. Ces trente dernières années ont été marquées par un accroissement important des droits des patients corollairement lié à un affaiblissement du pouvoir des médecins. A ce jour, le point d'équilibre ne semble pas être atteint, la tendance étant de pratiquer de la médecine dite défensive, promouvant le consentement éclairé au rôle de protection juridique du thérapeute, oubliant sa fonction première de garantie du libre choix du patient. GUILLOD, dans une thèse faisant autorité en Suisse, ayant pour thème : le consentement éclairé du patient, Autodétermination ou paternalisme ? s'était déjà penché en 1986 sur la problématique de l'information. A cette période, la jurisprudence en la matière était peu importante, le droit fédéral était pratiquement inexistant et le droit cantonal commençait à émerger. Nous avons dès lors décidé de consacrer notre travail de doctorat au devoir d'information du médecin, eu égard au nombre considérable de décisions rendues en la matière et à l'évolution de la législation tant fédérale que cantonale. Pratiquement, cette étude se subdivise en trois parties. La première permettra d'analyser les différents fondements juridiques du devoir d'information. Nous nous proposons de commencer par un aperçu de la théorie des droits de la personnalité avant de l'appliquer au devoir d'information. Puis, nous examinerons le devoir d'information dans les autres domaines du droit, tels que le droit pénal, le droit des contrats, le droit public ou le droit international. De plus, vu l'importance des normes déontologiques dans ce domaine, celles-ci feront l'objet d'une analyse spécifique. Dans une deuxième partie, il s'agira de dessiner les contours de l'information médicale. Nous commencerons par déterminer les parties à cette information avant de déterminer l'étendue et le contenu du devoir incombant au médecin. Puis, nous aborderons successivement la question des modalités de l'information et la problématique du fardeau de la preuve. Ensuite, les limitations et les cas particuliers seront examinés. La suite du travail portera sur l'exigence d'un consentement libre et éclairé en sa qualité de corollaire à l'information. Enfin, nous terminerons par un examen du droit d'accès au dossier médical. La troisième partie consacre spécifiquement le devoir d'information dans les nouvelles lois fédérales médicales (LPMA, LRCS, LAGH, LTO, LSter, LPTh, AP LRH). Dans ce dernier volet, nous nous proposons de commencer par un examen des compétences de la Confédération en médecine humaine, puis nous analyserons ces différentes lois, essentiellement sous trois aspects : leur champ d'application, l'information et le consentement du patient.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse s'inscrit dans le cadre de la Pragmalinguistique et d'Analyse du discours oral et offre une étude approfondie d'un talk show télévisuel espagnol, Diario de Patricia, format dans lequel la présentatrice du même nom reçoit des invités pour parler avec eux de leurs problèmes personnels. Ce travail propose une relecture de grandes théories pragmatiques (comme la Théorie des actes du langage, le Principe de coopération, la Théorie de la politesse ou encore la Théorie de la pertinence) et leur application à des discours réels. Les principes de la linguistique de l'interaction permettent également de décrire l'organisation des talk shows, les stratégies discursives de la présentatrice, la façon dont elle prépare chaque émission et planifie les interviews avec ses invités afin de provoquer chez ceux-ci des réactions émotionnelles qui l'intéressent en vue du taux d'audience. Ce travail de recherche présente également une analyse approfondie des mécanismes pragmalinguistiques utilisés par la présentatrice pour imposer son autorité et pour maîtriser la situation d'une façon que l'auteure qualifie de manipulation des invités, toujours sous une apparence d'empathie et de compréhension.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RÉSUMÉ En conjuguant les méthodes de l'histoire littéraire, de la sociologie des champs et de l'analyse littéraire, ce mémoire se propose d'étudier l'élaboration de la « posture » de Maurice Blanchot dans l'immédiat après-guerre (1944-1948). Le passé de Blanchot, marqué par des positions politiques d'extrême droite dans les années 30, et dans une certaine mesure encore sous l'Occupation, le conduit à un repositionnement conséquent dans le champ littéraire de la Libération marqué par l'Epuration des écrivains collaborateurs. Ce repositionnement se traduit par l'élaboration de la « posture » de l'écrivain en retrait, qui se présente comme la manifestation d'une autonomie littéraire radicale. Toutefois, cette posture du retrait demeure une forme de participation au champ littéraire et Blanchot, malgré sa volonté d'une parfaite autonomie de son oeuvre vis-à-vis des impératifs économiques ou idéologiques du temps, n'en est pas moins amené à réélaborer ses postulats critiques de même que sa production proprement dite (Le Très-Haut, L'Arrêt de mort), en interaction avec les nouvelles forces dominantes du champ littéraire de la Libération. Il est notamment conduit à se positionner vis-à-vis de la nouvelle avant-garde qui a émergé de la Résistance, dominée par Sartre et ses Temps Modernes, qui promeut un nouveau modèle, celui de l'écrivain engagé.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

(Résumé de l'ouvrage) Le facteur religieux intervient dans le processus européen d'intégration. Aujourd'hui, le débat sur le préambule de la constitution européenne met en scène l'importance des héritages religieux dans l'identité civilisationnelle de l'Europe. Mais la façon d'exprimer cette identité suscite bien des débats au sein des mondes religieux et laïques. La question centrale est celle de l'acceptation de la société pluraliste et de la laïcité des institutions publiques. Il s'agit d'un défi autant pour les pays de tradition orthodoxe, aujourd'hui confrontés au pluralisme religieux qu'a entraîné l'ouverture démocratique, que pour les pays de tradition judéo-chrétienne qui doivent compter avec la présence établie de communautés musulmanes d'horizons et de générations diverses. Le succès des religions et des spiritualités orientales, tel que le bouddhisme, engendre lui aussi des attitudes diversifiées du croire en modernité. Continent marqué par des déchirures géographiques, idéologiques et religieuses, l'Europe est aujourd'hui le terrain de recomposition économiques, politiques et juridiques. Produit d'une science des religions ouverte et prospective, le présent ouvrage veut collaborer, à l'aide d'approches et de méthodes diverses, à la recherche de valeurs fédératives pour l'Europe de demain. La majorité des contributions réunies ont été présentées lors du troisième cycle en science des religions organisé en 2003 par la Conférence Universitaire de Suisse occidentale (CUSO).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

(Résumé de l'ouvrage) Le présent recueil d'hommages veut témoigner de l'importance de l'oeuvre théologique de Jean Richard, professeur à la Faculté de théologie et de sciences religieuses de l'Université Laval. Désireux de signifier leur reconnaissance au père Richard, les auteurs de ce livre ont proposé des textes s'inscrivant dans l'un ou l'autre de ses champs de recherche privilégiés. Le tableau des contributeurs à ces mélanges regroupe des théologiens de tous les âges, hommes et femmes, provenant du Canada, mais aussi des États-Unis et de l'Europe, de langue française, anglaise ou allemande, de confession catholique ou protestante, oeuvrant dans des champs disciplinaires aussi divers que la théologie systématique, la théologie fondamentale, l'éthique théologique, l'exégèse ou encore la philosophie. Cette diversité est révélatrice de la personnalité théologique du père Richard, du caractère international de son réseau d'amitiés et de recherche et de l'ampleur de son influence. Elle témoigne aussi de l'audace d'une oeuvre qui, entreprise dans les années 1960, a dès le départ relevé le défi de l'aggiornamento que venait de poser en toute urgence son Église et qui a très vite conduit son auteur « aux confins », pour reprendre - et pour cause - une expression de son mentor Paul Tillich qui lui sied à merveille. Les contributions réunies dans ce volume ne résultent pas d'un plan concerté. D'autant plus significatifs sont les recoupements thématiques qu'on y observe, qui, par un hasard seulement apparent, restituent les principaux axes de la production théologique du père Jean Richard. L'ouverture au présent et a ses problématiques propres, ainsi que les défis conceptuels par là posés à l'effort théologique constituent les deux constantes de ces contributions, comme de l'oeuvre qui les a inspirées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Référence bibliographique : Rol, 54854

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le concept de test relationnel (test, en anglais ; Weiss et Sampson, 1986 [16]) est présenté. Ses origines dans les écrits de Freud sont brièvement retracées et son inscription dans la théorie des croyances pathogènes de Weiss présentée. Par ailleurs, les autres éléments de la théorie psychanalytique de Weiss sont présentés (buts thérapeutiques, obstacles, traumas, insight, test relationnel). Toutes ces étapes sont illustrées par des exemples tirés de la littérature. Un développement récent du concept de test relationnel est présenté et appliqué à la psychothérapie des troubles de la personnalité (Sachse, 2003 [14]). Finalement, les auteurs donnent deux brefs exemples de tests relationnels tirés de leur propre pratique de psychothérapeute et discutent des modèles en les comparant entre eux. Des conclusions concernant l'utilité du concept de test relationnel pour la pratique psychothérapeutique et la recherche en psychothérapie sont proposées. The test concept (Weiss and Sampson, 1986 [16]) is presented. Its origins in Freud's works are briefly evoked and its place within the theory of pathogenic beliefs by Weiss presented. We present also the remaining elements of Weiss' psychoanalytic theory which are objectives, obstacles, traumas and insight. Every step of the reflection is illustrated with case examples, drawn from the literature. A recent development of the test concept is presented and applied to the psychotherapy of personality disorders (Sachse, 2003 [14]). Finally, the authors give brief examples of tests having occurred in their own practice as psychotherapists and discuss the models by comparing them among each other. Conclusions are drawn concerning the usefulness of the test concept for psychotherapy practice and research.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce travail vise à exposer le courant de la psychologie positive et à présenter une tentative d'articulation entre ce courant et le champ de la pratique psychothérapeutique. Nous présenterons, dans un premier temps, les fondements de la psychologie positive et les axes principaux qui la constituent. Dans cette perspective, la théorie des émotions positives de Fredrickson et la classification des vertus et des forces de caractères de Peterson et Seligman sont exposées plus en détails. Dans un second temps et à partir des travaux récents, deux facçons d'établir un pont entre psychologie positive et la psychothérapie sont discutées : (i) le développement de nouvelles stratégies thérapeutiques issues de la psychologie positive et (ii) une relecture des principaux modèles psychothérapeutiques au regard de la psychologie positive. / This article aims to present the field of positive psychology and the way it could be integrated in the area of psychotherapy. First, the historical grounding and the main contributions of positive psychology are presented. In this perspective, the Fredrickson's theory of positive emotions and the Peterson's classification of character strengths and virtues are particularly detailed. Secondly, based on recent research, two ways to link positive psychology to clinical practice emerged: (i) the development of new therapeutic strategies anchored in the positive psychology, and (ii) a critical look at different psychotherapeutic modalities based on positive psychology.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A character network represents relations between characters from a text; the relations are based on text proximity, shared scenes/events, quoted speech, etc. Our project sketches a theoretical framework for character network analysis, bringing together narratology, both close and distant reading approaches, and social network analysis. It is in line with recent attempts to automatise the extraction of literary social networks (Elson, 2012; Sack, 2013) and other studies stressing the importance of character- systems (Woloch, 2003; Moretti, 2011). The method we use to build the network is direct and simple. First, we extract co-occurrences from a book index, without the need for text analysis. We then describe the narrative roles of the characters, which we deduce from their respective positions in the network, i.e. the discourse. As a case study, we use the autobiographical novel Les Confessions by Jean-Jacques Rousseau. We start by identifying co-occurrences of characters in the book index of our edition (Slatkine, 2012). Subsequently, we compute four types of centrality: degree, closeness, betweenness, eigenvector. We then use these measures to propose a typology of narrative roles for the characters. We show that the two parts of Les Confessions, written years apart, are structured around mirroring central figures that bear similar centrality scores. The first part revolves around the mentor of Rousseau; a figure of openness. The second part centres on a group of schemers, depicting a period of deep paranoia. We also highlight characters with intermediary roles: they provide narrative links between the societies in the life of the author. The method we detail in this complete case study of character network analysis can be applied to any work documented by an index. Un réseau de personnages modélise les relations entre les personnages d'un récit : les relations sont basées sur une forme de proximité dans le texte, l'apparition commune dans des événements, des citations dans des dialogues, etc. Notre travail propose un cadre théorique pour l'analyse des réseaux de personnages, rassemblant narratologie, close et distant reading, et analyse des réseaux sociaux. Ce travail prolonge les tentatives récentes d'automatisation de l'extraction de réseaux sociaux tirés de la littérature (Elson, 2012; Sack, 2013), ainsi que les études portant sur l'importance des systèmes de personnages (Woloch, 2003; Moretti, 2011). La méthode que nous utilisons pour construire le réseau est directe et simple. Nous extrayons les co-occurrences d'un index sans avoir recours à l'analyse textuelle. Nous décrivons les rôles narratifs des personnages en les déduisant de leurs positions relatives dans le réseau, donc du discours. Comme étude de cas, nous avons choisi le roman autobiographique Les Confessions, de Jean- Jacques Rousseau. Nous déduisons les co-occurrences entre personnages de l'index présent dans l'édition Slatkine (Rousseau et al., 2012). Sur le réseau obtenu, nous calculons quatre types de centralité : le degré, la proximité, l'intermédiarité et la centralité par vecteur propre. Nous utilisons ces mesures pour proposer une typologie des rôles narratifs des personnages. Nous montrons que les deux parties des Confessions, écrites à deux époques différentes, sont structurées autour de deux figures centrales, qui obtiennent des mesures de centralité similaires. La première partie est construite autour du mentor de Rousseau, qui a symbolisé une grande ouverture. La seconde partie se focalise sur un groupe de comploteurs, et retrace une période marquée par la paranoïa chez l'auteur. Nous mettons également en évidence des personnages jouant des rôles intermédiaires, et de fait procurant un lien narratif entre les différentes sociétés couvrant la vie de l'auteur. La méthode d'analyse des réseaux de personnages que nous décrivons peut être appliquée à tout texte de fiction comportant un index.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Helvetic nappe system in Western Switzerland is a stack of fold nappes and thrust sheets em-placed at low grade metamorphism. Fold nappes and thrust sheets are also some of the most common features in orogens. Fold nappes are kilometer scaled recumbent folds which feature a weakly deformed normal limb and an intensely deformed overturned limb. Thrust sheets on the other hand are characterized by the absence of overturned limb and can be defined as almost rigid blocks of crust that are displaced sub-horizontally over up to several tens of kilometers. The Morcles and Doldenhom nappe are classic examples of fold nappes and constitute the so-called infra-Helvetic complex in Western and Central Switzerland, respectively. This complex is overridden by thrust sheets such as the Diablerets and Wildhörn nappes in Western Switzerland. One of the most famous example of thrust sheets worldwide is the Glariis thrust sheet in Central Switzerland which features over 35 kilometers of thrusting which are accommodated by a ~1 m thick shear zone. Since the works of the early Alpine geologist such as Heim and Lugeon, the knowledge of these nappes has been steadily refined and today the geometry and kinematics of the Helvetic nappe system is generally agreed upon. However, despite the extensive knowledge we have today of the kinematics of fold nappes and thrust sheets, the mechanical process leading to the emplacement of these nappe is still poorly understood. For a long time geologist were facing the so-called 'mechanical paradox' which arises from the fact that a block of rock several kilometers high and tens of kilometers long (i.e. nappe) would break internally rather than start moving on a low angle plane. Several solutions were proposed to solve this apparent paradox. Certainly the most successful is the theory of critical wedges (e.g. Chappie 1978; Dahlen, 1984). In this theory the orogen is considered as a whole and this change of scale allows thrust sheet like structures to form while being consistent with mechanics. However this theoiy is intricately linked to brittle rheology and fold nappes, which are inherently ductile structures, cannot be created in these models. When considering the problem of nappe emplacement from the perspective of ductile rheology the problem of strain localization arises. The aim of this thesis was to develop and apply models based on continuum mechanics and integrating heat transfer to understand the emplacement of nappes. Models were solved either analytically or numerically. In the first two papers of this thesis we derived a simple model which describes channel flow in a homogeneous material with temperature dependent viscosity. We applied this model to the Morcles fold nappe and to several kilometer-scale shear zones worldwide. In the last paper we zoomed out and studied the tectonics of (i) ductile and (ii) visco-elasto-plastic and temperature dependent wedges. In this last paper we focused on the relationship between basement and cover deformation. We demonstrated that during the compression of a ductile passive margin both fold nappes and thrust sheets can develop and that these apparently different structures constitute two end-members of a single structure (i.e. nappe). The transition from fold nappe to thrust sheet is to first order controlled by the deformation of the basement. -- Le système des nappes helvétiques en Suisse occidentale est un empilement de nappes de plis et de nappes de charriage qui se sont mis en place à faible grade métamorphique. Les nappes de plis et les nappes de charriage sont parmi les objets géologiques les plus communs dans les orogènes. Les nappes de plis sont des plis couchés d'échelle kilométrique caractérisés par un flanc normal faiblement défor-mé, au contraire de leur flanc inverse, intensément déformé. Les nappes de charriage, à l'inverse se caractérisent par l'absence d'un flanc inverse bien défini. Elles peuvent être définies comme des blocs de croûte terrestre qui se déplacent de manière presque rigide qui sont déplacés sub-horizontalement jusqu'à plusieurs dizaines de kilomètres. La nappe de Mordes et la nappe du Doldenhorn sont des exemples classiques de nappes de plis et constitue le complexe infra-helvétique en Suisse occidentale et centrale, respectivement. Ce complexe repose sous des nappes de charriages telles les nappes des Diablerets et du Widlhörn en Suisse occidentale. La nappe du Glariis en Suisse centrale se distingue par un déplacement de plus de 35 kilomètres qui s'est effectué à la faveur d'une zone de cisaillement basale épaisse de seulement 1 mètre. Aujourd'hui la géométrie et la cinématique des nappes alpines fait l'objet d'un consensus général. Malgré cela, les processus mécaniques par lesquels ces nappes se sont mises en place restent mal compris. Pendant toute la première moitié du vingtième siècle les géologues les géologues ont été confrontés au «paradoxe mécanique». Celui-ci survient du fait qu'un bloc de roche haut de plusieurs kilomètres et long de plusieurs dizaines de kilomètres (i.e., une nappe) se fracturera de l'intérieur plutôt que de se déplacer sur une surface frictionnelle. Plusieurs solutions ont été proposées pour contourner cet apparent paradoxe. La solution la plus populaire est la théorie des prismes d'accrétion critiques (par exemple Chappie, 1978 ; Dahlen, 1984). Dans le cadre de cette théorie l'orogène est considéré dans son ensemble et ce simple changement d'échelle solutionne le paradoxe mécanique (la fracturation interne de l'orogène correspond aux nappes). Cette théorie est étroitement lié à la rhéologie cassante et par conséquent des nappes de plis ne peuvent pas créer au sein d'un prisme critique. Le but de cette thèse était de développer et d'appliquer des modèles basés sur la théorie de la méca-nique des milieux continus et sur les transferts de chaleur pour comprendre l'emplacement des nappes. Ces modèles ont été solutionnés de manière analytique ou numérique. Dans les deux premiers articles présentés dans ce mémoire nous avons dérivé un modèle d'écoulement dans un chenal d'un matériel homogène dont la viscosité dépend de la température. Nous avons appliqué ce modèle à la nappe de Mordes et à plusieurs zone de cisaillement d'échelle kilométrique provenant de différents orogènes a travers le monde. Dans le dernier article nous avons considéré le problème à l'échelle de l'orogène et avons étudié la tectonique de prismes (i) ductiles, et (ii) visco-élasto-plastiques en considérant les transferts de chaleur. Nous avons démontré que durant la compression d'une marge passive ductile, a la fois des nappes de plis et des nappes de charriages peuvent se développer. Nous avons aussi démontré que nappes de plis et de charriages sont deux cas extrêmes d'une même structure (i.e. nappe) La transition entre le développement d'une nappe de pli ou d'une nappe de charriage est contrôlé au premier ordre par la déformation du socle. -- Le système des nappes helvétiques en Suisse occidentale est un emblement de nappes de plis et de nappes de chaînage qui se sont mis en place à faible grade métamoiphique. Les nappes de plis et les nappes de charriage sont parmi les objets géologiques les plus communs dans les orogènes. Les nappes de plis sont des plis couchés d'échelle kilométrique caractérisés par un flanc normal faiblement déformé, au contraire de leur flanc inverse, intensément déformé. Les nappes de charriage, à l'inverse se caractérisent par l'absence d'un flanc inverse bien défini. Elles peuvent être définies comme des blocs de croûte terrestre qui se déplacent de manière presque rigide qui sont déplacés sub-horizontalement jusqu'à plusieurs dizaines de kilomètres. La nappe de Morcles and la nappe du Doldenhorn sont des exemples classiques de nappes de plis et constitue le complexe infra-helvétique en Suisse occidentale et centrale, respectivement. Ce complexe repose sous des nappes de charriages telles les nappes des Diablerets et du Widlhörn en Suisse occidentale. La nappe du Glarüs en Suisse centrale est certainement l'exemple de nappe de charriage le plus célèbre au monde. Elle se distingue par un déplacement de plus de 35 kilomètres qui s'est effectué à la faveur d'une zone de cisaillement basale épaisse de seulement 1 mètre. La géométrie et la cinématique des nappes alpines fait l'objet d'un consensus général parmi les géologues. Au contraire les processus physiques par lesquels ces nappes sont mises en place reste mal compris. Les sédiments qui forment les nappes alpines se sont déposés à l'ère secondaire et à l'ère tertiaire sur le socle de la marge européenne qui a été étiré durant l'ouverture de l'océan Téthys. Lors de la fermeture de la Téthys, qui donnera naissance aux Alpes, le socle et les sédiments de la marge européenne ont été déformés pour former les nappes alpines. Le but de cette thèse était de développer et d'appliquer des modèles basés sur la théorie de la mécanique des milieux continus et sur les transferts de chaleur pour comprendre l'emplacement des nappes. Ces modèles ont été solutionnés de manière analytique ou numérique. Dans les deux premiers articles présentés dans ce mémoire nous nous sommes intéressés à la localisation de la déformation à l'échelle d'une nappe. Nous avons appliqué le modèle développé à la nappe de Morcles et à plusieurs zones de cisaillement provenant de différents orogènes à travers le monde. Dans le dernier article nous avons étudié la relation entre la déformation du socle et la défonnation des sédiments. Nous avons démontré que nappe de plis et nappes de charriages constituent les cas extrêmes d'un continuum. La transition entre nappe de pli et nappe de charriage est intrinsèquement lié à la déformation du socle sur lequel les sédiments reposent.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract The object of game theory lies in the analysis of situations where different social actors have conflicting requirements and where their individual decisions will all influence the global outcome. In this framework, several games have been invented to capture the essence of various dilemmas encountered in many common important socio-economic situations. Even though these games often succeed in helping us understand human or animal behavior in interactive settings, some experiments have shown that people tend to cooperate with each other in situations for which classical game theory strongly recommends them to do the exact opposite. Several mechanisms have been invoked to try to explain the emergence of this unexpected cooperative attitude. Among them, repeated interaction, reputation, and belonging to a recognizable group have often been mentioned. However, the work of Nowak and May (1992) showed that the simple fact of arranging the players according to a spatial structure and only allowing them to interact with their immediate neighbors is sufficient to sustain a certain amount of cooperation even when the game is played anonymously and without repetition. Nowak and May's study and much of the following work was based on regular structures such as two-dimensional grids. Axelrod et al. (2002) showed that by randomizing the choice of neighbors, i.e. by actually giving up a strictly local geographical structure, cooperation can still emerge, provided that the interaction patterns remain stable in time. This is a first step towards a social network structure. However, following pioneering work by sociologists in the sixties such as that of Milgram (1967), in the last few years it has become apparent that many social and biological interaction networks, and even some technological networks, have particular, and partly unexpected, properties that set them apart from regular or random graphs. Among other things, they usually display broad degree distributions, and show small-world topological structure. Roughly speaking, a small-world graph is a network where any individual is relatively close, in terms of social ties, to any other individual, a property also found in random graphs but not in regular lattices. However, in contrast with random graphs, small-world networks also have a certain amount of local structure, as measured, for instance, by a quantity called the clustering coefficient. In the same vein, many real conflicting situations in economy and sociology are not well described neither by a fixed geographical position of the individuals in a regular lattice, nor by a random graph. Furthermore, it is a known fact that network structure can highly influence dynamical phenomena such as the way diseases spread across a population and ideas or information get transmitted. Therefore, in the last decade, research attention has naturally shifted from random and regular graphs towards better models of social interaction structures. The primary goal of this work is to discover whether or not the underlying graph structure of real social networks could give explanations as to why one finds higher levels of cooperation in populations of human beings or animals than what is prescribed by classical game theory. To meet this objective, I start by thoroughly studying a real scientific coauthorship network and showing how it differs from biological or technological networks using divers statistical measurements. Furthermore, I extract and describe its community structure taking into account the intensity of a collaboration. Finally, I investigate the temporal evolution of the network, from its inception to its state at the time of the study in 2006, suggesting also an effective view of it as opposed to a historical one. Thereafter, I combine evolutionary game theory with several network models along with the studied coauthorship network in order to highlight which specific network properties foster cooperation and shed some light on the various mechanisms responsible for the maintenance of this same cooperation. I point out the fact that, to resist defection, cooperators take advantage, whenever possible, of the degree-heterogeneity of social networks and their underlying community structure. Finally, I show that cooperation level and stability depend not only on the game played, but also on the evolutionary dynamic rules used and the individual payoff calculations. Synopsis Le but de la théorie des jeux réside dans l'analyse de situations dans lesquelles différents acteurs sociaux, avec des objectifs souvent conflictuels, doivent individuellement prendre des décisions qui influenceront toutes le résultat global. Dans ce cadre, plusieurs jeux ont été inventés afin de saisir l'essence de divers dilemmes rencontrés dans d'importantes situations socio-économiques. Bien que ces jeux nous permettent souvent de comprendre le comportement d'êtres humains ou d'animaux en interactions, des expériences ont montré que les individus ont parfois tendance à coopérer dans des situations pour lesquelles la théorie classique des jeux prescrit de faire le contraire. Plusieurs mécanismes ont été invoqués pour tenter d'expliquer l'émergence de ce comportement coopératif inattendu. Parmi ceux-ci, la répétition des interactions, la réputation ou encore l'appartenance à des groupes reconnaissables ont souvent été mentionnés. Toutefois, les travaux de Nowak et May (1992) ont montré que le simple fait de disposer les joueurs selon une structure spatiale en leur permettant d'interagir uniquement avec leurs voisins directs est suffisant pour maintenir un certain niveau de coopération même si le jeu est joué de manière anonyme et sans répétitions. L'étude de Nowak et May, ainsi qu'un nombre substantiel de travaux qui ont suivi, étaient basés sur des structures régulières telles que des grilles à deux dimensions. Axelrod et al. (2002) ont montré qu'en randomisant le choix des voisins, i.e. en abandonnant une localisation géographique stricte, la coopération peut malgré tout émerger, pour autant que les schémas d'interactions restent stables au cours du temps. Ceci est un premier pas en direction d'une structure de réseau social. Toutefois, suite aux travaux précurseurs de sociologues des années soixante, tels que ceux de Milgram (1967), il est devenu clair ces dernières années qu'une grande partie des réseaux d'interactions sociaux et biologiques, et même quelques réseaux technologiques, possèdent des propriétés particulières, et partiellement inattendues, qui les distinguent de graphes réguliers ou aléatoires. Entre autres, ils affichent en général une distribution du degré relativement large ainsi qu'une structure de "petit-monde". Grossièrement parlant, un graphe "petit-monde" est un réseau où tout individu se trouve relativement près de tout autre individu en termes de distance sociale, une propriété également présente dans les graphes aléatoires mais absente des grilles régulières. Par contre, les réseaux "petit-monde" ont, contrairement aux graphes aléatoires, une certaine structure de localité, mesurée par exemple par une quantité appelée le "coefficient de clustering". Dans le même esprit, plusieurs situations réelles de conflit en économie et sociologie ne sont pas bien décrites ni par des positions géographiquement fixes des individus en grilles régulières, ni par des graphes aléatoires. De plus, il est bien connu que la structure même d'un réseau peut passablement influencer des phénomènes dynamiques tels que la manière qu'a une maladie de se répandre à travers une population, ou encore la façon dont des idées ou une information s'y propagent. Ainsi, durant cette dernière décennie, l'attention de la recherche s'est tout naturellement déplacée des graphes aléatoires et réguliers vers de meilleurs modèles de structure d'interactions sociales. L'objectif principal de ce travail est de découvrir si la structure sous-jacente de graphe de vrais réseaux sociaux peut fournir des explications quant aux raisons pour lesquelles on trouve, chez certains groupes d'êtres humains ou d'animaux, des niveaux de coopération supérieurs à ce qui est prescrit par la théorie classique des jeux. Dans l'optique d'atteindre ce but, je commence par étudier un véritable réseau de collaborations scientifiques et, en utilisant diverses mesures statistiques, je mets en évidence la manière dont il diffère de réseaux biologiques ou technologiques. De plus, j'extrais et je décris sa structure de communautés en tenant compte de l'intensité d'une collaboration. Finalement, j'examine l'évolution temporelle du réseau depuis son origine jusqu'à son état en 2006, date à laquelle l'étude a été effectuée, en suggérant également une vue effective du réseau par opposition à une vue historique. Par la suite, je combine la théorie évolutionnaire des jeux avec des réseaux comprenant plusieurs modèles et le réseau de collaboration susmentionné, afin de déterminer les propriétés structurelles utiles à la promotion de la coopération et les mécanismes responsables du maintien de celle-ci. Je mets en évidence le fait que, pour ne pas succomber à la défection, les coopérateurs exploitent dans la mesure du possible l'hétérogénéité des réseaux sociaux en termes de degré ainsi que la structure de communautés sous-jacente de ces mêmes réseaux. Finalement, je montre que le niveau de coopération et sa stabilité dépendent non seulement du jeu joué, mais aussi des règles de la dynamique évolutionnaire utilisées et du calcul du bénéfice d'un individu.