227 resultados para connaissance pathétique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La surveillance et la maîtrise des coûts liés aux analyses ADN sont très importants, surtout dans un contexte où les ressources financières ne sont pas illimitées. Des décisions quant à la priorisation des prélèvements à analyser s'imposent. La connaissance de l'aspect budgétaire est un des éléments qui peut aider à la prise de décision. Après un bref rappel des bases légales en matière d'analyses ADN en Suisse et de l'évolution législative de ces dernières années, l'article présente différents aspects financiers liés aux analyses ADN. De l'importance des sommes investies dans ces analyses et souvent méconnues dans leur globalité, même au sein des acteurs de la chaîne pénale, aux efforts faits pour optimiser les dépenses liées aux analyses ADN. Des actions sur différents facteurs qui portent sur la communication entre le laboratoire et le mandant des analyses, les changements dans le mode et les stratégies de prélèvements, ou l'utilisation de tests indicatifs moins chers qu'une analyse, nous ont permis d'optimiser nos dépenses pour obtenir plus de résultats positifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Le concept de clairvoyance normative (Py & Somat, 1991), qui a vu le jour dans la continuité des études sur la norme d'internalité (Beauvois, 1984), traduit la connaissance du caractère normatif ou contre-normatif d'un type de comportements ou d'un type de jugements. Un certain nombre de recherches semble alors attester que la clairvoyance normative participe à l'obtention d'une évaluation positive. Toutefois, ces différentes recherches font toutes fi de l'idée qu'il existerait deux dimensions de la valeur sociale : l'utilité sociale et la désirabilité sociale. La prise en compte de ces deux dimensions, surtout si l'on admet que les normes sociales ne renvoient pas toutes à la même dimension (Beauvois, 1995 ; Dubois & Beauvois, 2005 ; Dubois, 2005), vient alors quelque peu compliquer le modèle liant clairvoyance normative et évaluation positive car elle suggère que la clairvoyance de certaines normes aidera avant tout à être bien évalué sur le plan de l'utilité sociale alors que la clairvoyance d'autres normes participera davantage à être évalué favorablement sur le plan de la désirabilité sociale. Ces réflexions ont été à la base de ce travail de thèse et ont conduit à la réalisation de notre première étude. Les quelques résultats inattendus que nous avons obtenus nous ont cependant incité par la suite à reconsidérer la pertinence de rattacher la notion de clairvoyance à certains types de contenu (internalité, autosuffisance, etc.), ce qui nous a amené à la proposition de deux nouvelles notions : la clairvoyance de l'utilité sociale et la clairvoyance de la désirabilité sociale. C'est dans l'optique de valider cette proposition que deux nouvelles études ont alors été réalisées. Si celles-ci appuient dans leur ensemble l'idée que les clairvoyances de l'utilité et de la désirabilité sociales seraient des indicateurs plus performants d'une évaluation sociale positive que ne le seraient les clairvoyances des normes sociales de jugement, elles n'ont néanmoins pas manqué de soulever de nouvelles questions. Cela nous a ainsi mené, dans un troisième temps, à nous interroger sur ce qui détermine la valeur en jeu dans une situation d'évaluation. Nos trois dernières études ont été construites dans ce dessein et ont participé, en conclusion de ce travail, à étayer l'idée que la clairvoyance de la valeur sociale des jugements ne permettrait l'obtention d'une évaluation positive que si celle-ci va de pair avec une certaine clairvoyance de la valeur sociale des éléments constitutifs de la situation d'interaction. Abstract The concept of normative clearsightedness (Py & Somat, 1991), born in continuity with studies on the norm of internality (Beauvois, 1984), reflects the knowledge of the normative or counter-normative nature of a type of behaviour or a type of judgement. Several researches appear to show that normative clearsightedness helps to obtain a positive evaluation. However, none of these researches takes into account the idea that there might be two dimensions of social value: social utility and social desirability. Considering those two dimensions, especially if we accept that not all social norms refer to the same dimension (Beauvois, 1995; Dubois & Beauvois, 2005; Dubois, 2005), somehow complicates the model linking normative clearsightedness with a positive evaluation. It suggests indeed that while clearsightedness of some norms will help first of all to get a good evaluation on the dimension of social utility, clearsightedness of other norms will help above all to get a good evaluation on the dimension of social desirability. These considerations were the foundation of this work and led to our first study. However, we reached some unexpected results that prompted us thereafter to reconsider the pertinence to attach the notion of clearsightedness to particular types of content (internality, self-sufficiency, etc.), which led us to propose two new notions: clearsightedness of social utility and clearsightedness of social desirability. Two new studies were thus executed to challenge this proposal. While these researches support as a whole that clearsightedness of social utility and social desirability are better indicators of positive evaluation than clearsightedness of social norms of judgement, they also raised new questions, which led us, in a third time, to wonder about what will determine the dominating social value in an evaluative situation. Our last three studies were designed to this purpose and helped to support the idea, in conclusion of this work, that the clearsightedness of the social value of judgements would bring a positive evaluation only if this clearsightedness is combined with a kind of clearsightedness of the social value of elements constituting the interaction's situation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In vivo dosimetry is a way to verify the radiation dose delivered to the patient in measuring the dose generally during the first fraction of the treatment. It is the only dose delivery control based on a measurement performed during the treatment. In today's radiotherapy practice, the dose delivered to the patient is planned using 3D dose calculation algorithms and volumetric images representing the patient. Due to the high accuracy and precision necessary in radiation treatments, national and international organisations like ICRU and AAPM recommend the use of in vivo dosimetry. It is also mandatory in some countries like France. Various in vivo dosimetry methods have been developed during the past years. These methods are point-, line-, plane- or 3D dose controls. A 3D in vivo dosimetry provides the most information about the dose delivered to the patient, with respect to ID and 2D methods. However, to our knowledge, it is generally not routinely applied to patient treatments yet. The aim of this PhD thesis was to determine whether it is possible to reconstruct the 3D delivered dose using transmitted beam measurements in the context of narrow beams. An iterative dose reconstruction method has been described and implemented. The iterative algorithm includes a simple 3D dose calculation algorithm based on the convolution/superposition principle. The methodology was applied to narrow beams produced by a conventional 6 MV linac. The transmitted dose was measured using an array of ion chambers, as to simulate the linear nature of a tomotherapy detector. We showed that the iterative algorithm converges quickly and reconstructs the dose within a good agreement (at least 3% / 3 mm locally), which is inside the 5% recommended by the ICRU. Moreover it was demonstrated on phantom measurements that the proposed method allows us detecting some set-up errors and interfraction geometry modifications. We also have discussed the limitations of the 3D dose reconstruction for dose delivery error detection. Afterwards, stability tests of the tomotherapy MVCT built-in onboard detector was performed in order to evaluate if such a detector is suitable for 3D in-vivo dosimetry. The detector showed stability on short and long terms comparable to other imaging devices as the EPIDs, also used for in vivo dosimetry. Subsequently, a methodology for the dose reconstruction using the tomotherapy MVCT detector is proposed in the context of static irradiations. This manuscript is composed of two articles and a script providing further information related to this work. In the latter, the first chapter introduces the state-of-the-art of in vivo dosimetry and adaptive radiotherapy, and explains why we are interested in performing 3D dose reconstructions. In chapter 2 a dose calculation algorithm implemented for this work is reviewed with a detailed description of the physical parameters needed for calculating 3D absorbed dose distributions. The tomotherapy MVCT detector used for transit measurements and its characteristics are described in chapter 3. Chapter 4 contains a first article entitled '3D dose reconstruction for narrow beams using ion chamber array measurements', which describes the dose reconstruction method and presents tests of the methodology on phantoms irradiated with 6 MV narrow photon beams. Chapter 5 contains a second article 'Stability of the Helical TomoTherapy HiArt II detector for treatment beam irradiations. A dose reconstruction process specific to the use of the tomotherapy MVCT detector is presented in chapter 6. A discussion and perspectives of the PhD thesis are presented in chapter 7, followed by a conclusion in chapter 8. The tomotherapy treatment device is described in appendix 1 and an overview of 3D conformai- and intensity modulated radiotherapy is presented in appendix 2. - La dosimétrie in vivo est une technique utilisée pour vérifier la dose délivrée au patient en faisant une mesure, généralement pendant la première séance du traitement. Il s'agit de la seule technique de contrôle de la dose délivrée basée sur une mesure réalisée durant l'irradiation du patient. La dose au patient est calculée au moyen d'algorithmes 3D utilisant des images volumétriques du patient. En raison de la haute précision nécessaire lors des traitements de radiothérapie, des organismes nationaux et internationaux tels que l'ICRU et l'AAPM recommandent l'utilisation de la dosimétrie in vivo, qui est devenue obligatoire dans certains pays dont la France. Diverses méthodes de dosimétrie in vivo existent. Elles peuvent être classées en dosimétrie ponctuelle, planaire ou tridimensionnelle. La dosimétrie 3D est celle qui fournit le plus d'information sur la dose délivrée. Cependant, à notre connaissance, elle n'est généralement pas appliquée dans la routine clinique. Le but de cette recherche était de déterminer s'il est possible de reconstruire la dose 3D délivrée en se basant sur des mesures de la dose transmise, dans le contexte des faisceaux étroits. Une méthode itérative de reconstruction de la dose a été décrite et implémentée. L'algorithme itératif contient un algorithme simple basé sur le principe de convolution/superposition pour le calcul de la dose. La dose transmise a été mesurée à l'aide d'une série de chambres à ionisations alignées afin de simuler la nature linéaire du détecteur de la tomothérapie. Nous avons montré que l'algorithme itératif converge rapidement et qu'il permet de reconstruire la dose délivrée avec une bonne précision (au moins 3 % localement / 3 mm). De plus, nous avons démontré que cette méthode permet de détecter certaines erreurs de positionnement du patient, ainsi que des modifications géométriques qui peuvent subvenir entre les séances de traitement. Nous avons discuté les limites de cette méthode pour la détection de certaines erreurs d'irradiation. Par la suite, des tests de stabilité du détecteur MVCT intégré à la tomothérapie ont été effectués, dans le but de déterminer si ce dernier peut être utilisé pour la dosimétrie in vivo. Ce détecteur a démontré une stabilité à court et à long terme comparable à d'autres détecteurs tels que les EPIDs également utilisés pour l'imagerie et la dosimétrie in vivo. Pour finir, une adaptation de la méthode de reconstruction de la dose a été proposée afin de pouvoir l'implémenter sur une installation de tomothérapie. Ce manuscrit est composé de deux articles et d'un script contenant des informations supplémentaires sur ce travail. Dans ce dernier, le premier chapitre introduit l'état de l'art de la dosimétrie in vivo et de la radiothérapie adaptative, et explique pourquoi nous nous intéressons à la reconstruction 3D de la dose délivrée. Dans le chapitre 2, l'algorithme 3D de calcul de dose implémenté pour ce travail est décrit, ainsi que les paramètres physiques principaux nécessaires pour le calcul de dose. Les caractéristiques du détecteur MVCT de la tomothérapie utilisé pour les mesures de transit sont décrites dans le chapitre 3. Le chapitre 4 contient un premier article intitulé '3D dose reconstruction for narrow beams using ion chamber array measurements', qui décrit la méthode de reconstruction et présente des tests de la méthodologie sur des fantômes irradiés avec des faisceaux étroits. Le chapitre 5 contient un second article intitulé 'Stability of the Helical TomoTherapy HiArt II detector for treatment beam irradiations'. Un procédé de reconstruction de la dose spécifique pour l'utilisation du détecteur MVCT de la tomothérapie est présenté au chapitre 6. Une discussion et les perspectives de la thèse de doctorat sont présentées au chapitre 7, suivies par une conclusion au chapitre 8. Le concept de la tomothérapie est exposé dans l'annexe 1. Pour finir, la radiothérapie «informationnelle 3D et la radiothérapie par modulation d'intensité sont présentées dans l'annexe 2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMÉ Objectifs de la recherche: Depuis quelques années, l'utilisation de l'écologie dans le marketing a connu un essor considérable, aussi bien dans le monde académique que dans la pratique. De nos jours, la notion de label suscite un vif intérêt auprès des entreprises désireuses de promouvoir des produits "verts". Le principe de l'écolabellisation consiste à fournir aux consommateurs, en plus du prix, un nouvel élément de comparaison des produits. Les écolabels sont considérés comme l'un des meilleurs outils pour informer le consommateur, d'une manière claire et compréhensible, de l'impact du produit sur l'environnement. Nous nous intéressons, dans le cadre de notre travail, à l'étude du comportement d'achat des produits écolabellisés. En dépit de leur popularité croissante, les études académiques portant sur les labels écologiques sont relativement rares et de nombreuses problématiques demeurent en suspens. L'étude du comportement d'achat - au sens large - mérite notamment d'être approfondie. Notre recherche a plusieurs volets. Premièrement, nous étudions l'impact des valeurs, de l'implication vis-à-vis de l'écologie, du scepticisme, de la compréhension du label et de la connaissance de l'écologie sur le comportement d'achat de produits écolabellisés. Ensuite, nous testons la cohérence entre comportements écologiques en introduisant un comportement post- achat (le triage des déchets ménagers). Théories sous-jacentes: Notre étude repose sur différents apports académiques relatifs au comportement du consommateur "vert" mais également sur des concepts issus de la psychologie et de la sociologie. Nous présentons d'abord la littérature portant sur la caractérisation du consommateur "vert" (Webster, 1975; Arbuthnot, 1977; Van Liere et Dunlap, 1981; Balderjahn, 1988; Antil, 1984; Grunert et Juhl, 1995; Roberts, 1996). Nous abordons ensuite les études portant sur les valeurs (Schwartz, 1992; 1994), l'implication (Zaichkowsy, 1994), le scepticisme (Gray-Lee, Scammon et Mayer, 1994; Mohr et al., 1998), la compréhension des écolabels (van Dam et Reuvekamp, 1995; Thogersen, 2000) et la connaissance de l'écologie (Maloney et al., 1973, 1975; Arbuthnot, 1977; Pickett et al., 1993). Ces variables nous semblent être les plus à même d'influencer le comportement d'achat de produits écolabellisés. Enfin, sur la base des travaux de Valette-Florence et Roehrich (1993), nous développons un modèle de causalité, centré sur la relation entre les valeurs, l'implication et le comportement. Hypothèses de recherche et opérationnalisation des variables: Nous développons 16 hypothèses de recherche dont 12 portent sur les rapports de causalité entre construits. Par ailleurs, pour mieux comprendre la personnalité du consommateur de produits écolabellisés, nous distinguons les variables reflétant un intérêt collectif (altruisme) de celles reflétant un intérêt individuel (égocentrisme). La mesure des différents construits reposent sur la liste de Schwartz (1992, 1994) pour les valeurs, l'échelle d'implication de Zaichkowsy (1994) pour la publicité, l'échelle développée par Mohs et al. (1998) pour mesurer le scepticisme et une liste de questions portant sur l'écologie (Diekmann, 1996) pour tester le niveau de connaissance. Les comportements d'achat et post-achat sont mesurés respectivement à l'aide de questions relatives à la fréquence d'achat de produits écolabellisés et du triage des déchets ménagers. Collecte des données: Le recueil des données s'effectue par sondage, en ayant recours à des questionnaires auto-administrés. L'échantillon comprend de 368 étudiants provenant de diverses facultés de sciences humaines de Suisse Romande. Analyse des données et interprétation des résultats: Notre étude porte sur le comportement d'achat de trois labels écologiques et sur le triage de 7 déchets ménagers. Les différentes analyses montrent que certaines valeurs ont un impact sur l'implication et que l'implication a une influence positive sur le comportement d'achat et post-achat. Par ailleurs, nous montrons que l'implication sert de variable médiatrice entre les valeurs et le comportement. De plus, la compréhension de l'écolabel influence de manière positive l'achat de produits écolabellisés, la connaissance de l'écologie a une influence positive sur le comportement post-achat et le scepticisme vis-à-vis de l'utilité du triage des déchets ménagers influence négativement le comportement de triage. Implications managériales: Les résultats obtenus suggèrent qu'outre la valeur "protection de l'environnement", d'autres valeurs comme "la stimulation" ou encore "l'accomplissement" influencent de manière significative l'implication vis-à-vis de l'écologie qui à son tour influence l'achat de produits écolabellisés. Le manager doit donc tenir compte du fait que le consommateur est impliqué dans l'écologie. Ensuite, la compréhension du label joue un rôle prépondérant dans l'achat. De plus, le consommateur ne semble pas être sceptique par rapport aux informations fournies par les écolabels et le niveau de connaissance de l'écologie n'affecte pas son comportement. Enfin, le consommateur semble agir de manière cohérente en achetant différents produits écolabellisés. Apports, limites et voies de recherche: Notre étude contribue à l'enrichissement de la recherche sur le comportement du consommateur dans un contexte écologique à plusieurs égards, notamment par l'étude de la relation entre les valeurs, l'implication et le comportement. Néanmoins, la portée de notre recherche est naturellement restreinte en raison du nombre limité de cas étudiés, soit 3 labels écologiques relativement peu connus de notre échantillon. Il serait utile de répéter l'étude en utilisant des labels plus populaires. Par ailleurs, nous avons eu recours à des échelles développées dans des contextes quelque peu différents. En particulier, une échelle d'implication devrait être développée spécifiquement pour le contexte écologique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : Les tumeurs de la paroi thoracique sont des pathologies graves dont le traitement principal consiste en une résection chirurgicale. L'enjeu majeur de cette intervention ontologique est de réséquer la totalité de la tumeur, ce qui nécessite une planification préopératoire minutieuse. Classiquement, l'identification et la localisation de la tumeur se fait à l'aide de la tomodensitométrie (computed tomography, CT) ou de l'imagerie par résonnance magnétique (1RM). Actuellement, l'imagerie nucléaire fonctionnelle par tomographie par émission de positons (positron emission tomography, PET) qui peut être couplée au CT (PET/CT) est de plus en plus appliquée aux patients présentant une tumeur maligne. Son efficacité a fréquemment été démontrée. Le but de la présente étude est d'évaluer la valeur du PET dans la planification de la résection des tumeurs de la paroi thoracique. Une analyse rétrospective de dix-huit patients opérés entre 2004 et 2006 a été réalisée; Dans ce groupe de patient, la taille de la tumeur mesurée sur la pièce opératoire réséquée a été comparée à la taille de la tumeur mesurée sur le CT et le PET. Les résultats démontrent que le CT surestimait de manière consistante la taille réelle de la tumeur par rapport au PET (+64% par rapport à +1%, P<0.001). De plus, le PET s'est avéré particulièrement performant pour prédire la taille des tumeurs de plus de 5.5 cm de diamètre par rapport au CT (valeur prédictive positive 80% par rapport à 44% et spécificité 93% par apport à 64%, respectivement). Cette étude démontre que le PET permettrait de mesurer la taille des tumeurs de la paroi thoracique de manière plus précise que le CT. Cette nouvelle modalité diagnostique s'avèrerait donc utile pour planifier les résections chirurgicales de telles tumeurs. A notre connaissance, aucune publication ne décrit la valeur du PET dans ce domaine. Les performances accrues du PET permettraient une meilleure délimitation des tumeurs ce qui améliorerait la précision de la résection chirurgicale. En conclusion, cette étude préliminaire rétrospective démontre la faisabilité du PET pour les tumeurs de la paroi thoracique. Ces résultats devraient être confirmés par une étude prospective incluant un plus grand nombre de patients avec la perspective de juger l'impact clinique réel du PET sur la prise en charge thérapeutique des patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SummaryRegulation of renal Na+ transport is essential for controlling blood pressure, as well as Na+ and K+ homeostasis. Aldosterone stimulates Na+ reabsorption in the aldosterone-sensitive distal nephron (ASDN), via the Na+-CI" cotransporter (NCC) in the distal convoluted tubule (DCT), and the epithelial Na+ channel (ENaC) in the late DCT, connecting tubule and collecting duct. Importantly, aldosterone increases NCC protein expression by an unknown post-translational mechanism. The ubiquitin-protein ligase Nedd4-2 is expressed along the ASDN and regulates ENaC: under aldosterone induction, the serum/glucocorticoid-regulated kinase SGK1 phosphorylates Nedd4-2 on S328, thus preventing the Nedd4-2/ENaC interaction, ubiquitylation and degradation of the channel. Here, we present evidence that Nedd4-2 regulates NCC. In transfected HEK293 cells, Nedd4-2 co-immunoprecipitates with NCC and stimulates NCC ubiquitylation at the cell surface. In Xenopus laevis oocytes, co- expression of NCC with wild-type Nedd4-2, but not its catalytically inactive mutant, strongly decreases NCC activity and surface expression. This inhibition is prevented by SGK1 in a kinase-dependent manner. Moreover, we show that NCC expression is up-regulated in inducible renal tubule-specific Nedd4-2 knockout mice and in mDCT15 cells silenced for Nedd4-2. On the other hand, in inducible renal tubule-specific SGK1 knockout mice, NCC expression is down-regulated.Interestingly, in contrast to ENaC, Nedd4-2-mediated NCC inhibition is independent of a PY motif in NCC. Moreover, whereas single mutations of Nedd4-2 S328 or S222 to alanine do not interfere with SGK1 action, the double mutation enhances Nedd4-2 activity and abolishes SGK1-dependent inhibition. These results indicate that NCC expression and activity is controlled by a regulatory pathway involving SGK1 and Nedd4-2, and provides an explanation for the well-known aldosterone-induced increase in NCC protein expression.RésuméLa régulation du transport de sodium est cruciale dans le maintien de la pression artérielle. L'aldostérone stimule la réabsorption de Na+ dans la partie du néphron sensible à l'aldostérone (ASDN), via le co-transporteur Na+-CI" (NCC) au niveau du tubule contourné distale et via le canal à sodium (Epithelial Na+ Channel ; ENaC) dans la deuxième partie du tubule contourné distale, dans le tube connecteur et le tube collecteur. L'aldostérone augmente l'expression de NCC au niveau protéique par un mécanisme non élucidé. La protéine ubiquitine ligase Nedd4-2 est exprimée tout le long du néphron sensible à l'aldostérone. ENaC est connu pour être régulé par Nedd4-2. Suite à une stimulation par l'aldostérone, la kinase Ser/Thr SGK1 phosphoryle Nedd4-2, ce qui empêche l'interaction entre Nedd4-2 et ENaC. Dans des cellules HEK293 transfectées, nous avons montré que Nedd4-2 interagit avec le co-transporteur NCC et stimule l'ubiquitylation de NCC à la surface. Nous avons montré dans les oocytes de Xenopus laevis que l'expression de NCC avec Nedd4-2 diminue l'activité du co-transporteur. Cette diminution n'est pas observée lorsqu'on exprime NCC avec le mutant inactif de Nedd4-2. Cette inhibition de NCC est contrée par SGK1. L'effet de SGK1 sur NCC dépend de son activité kinase. Nous avons montré dans des souris knock-out pour Nedd4-2, dans le néphron et de manière inductible, que l'expression de NCC est augmentée. Nous avons également montré que la suppression de la protéine Nedd4-2 dans les cellules mDCT15 provoque l'augmentation de NCC. Au contraire dans les souris knock-out pour la kinase SGK1, dans le néphron et de manière inductible, nous observons une diminution de la protéine NCC. Contrairement à ce qui a été montré pour le canal ENaC l'inhibition de NCC par Nedd4-2 est indépendante des motifs PY. De plus, La mutation des sérines 328 ou 222 sur Nedd4-2 en alanine n'interfère pas avec l'action de SGK1 pour prévenir l'inhibition. Par contre, la double mutation, les sérines 222 et 328 mutées en alanine, augmente l'action de Nedd4-2 sur l'activité de NCC et prévient l'effet de SGK1. Ces résultats montrent que l'expression et l'activité de NCC sont contrôlées par une voie de régulation impliquant Nedd4-2-SGK1 et nous fournissent une explication pour l'augmentation de NCC observé après une induction avec l'aldostérone.Résumé large publicOn estime que des millions de personnes seraient hypertendues. L'hypertension artérielle est responsable d'environ 8 millions de décès par ans dans le monde. L'hypertension est responsable de la moitié environs des accidents cardiaques, mais aussi des accidents vasculaires cérébraux. Il est très important de comprendre les mécanismes qui se trouvent derrière cette pathologie.Le co-transporteur NCC joue un grand rôle dans le maintien de la balance sodique. Il a été montré que des perturbations dans l'expression de NCC pouvaient engendrer de l'hypertension.Le co-transporteur NCC est exprimé dans la partie distale du néphron, l'unité fonctionnelle du rein. Plusieurs études ont montrées que NCC était sous le contrôle de l'hormone aldostérone.Le travail de cette thèse consiste à étudier les mécanismes impliqués dans la régulation de NCC. On a ainsi pu montrer que NCC interagit avec la protéine ubiquitine ligase Nedd4-2. La protéine Nedd4-2 diminue l'expression de NCC à la surface cellulaire et aussi son activité Nous avons également montré que la kinase SGK1 pouvait prévenir l'interaction entre Nedd4-2 et NCC par phosphorylation de Nedd4-2. Nous avons montré dans des souris deletée pour Nedd4-2, dans le néphron, que l'expression de NCC est augmentée. Nous avons également montré que la suppression de la protéine Nedd4-2 dans les cellules mDCT15 provoque l'augmentation de NCC. Au contraire, dans les souris deletée pour la kinase SGK1, dans le néphron, nous observons une diminution de la protéine NCC. La connaissance des processus impliqués dans la régulation du co-transporteur NCC pourrait amener au développement de nouveau médicaments pour soigner l'hypertension.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En français (Fouet des 'fascinateurs' hérétiques) dont l'objectif est de prouver la réalité du sabbat des sorciers, dans le contexte du début de la répression de la sorcellerie démoniaque et des contestations qu'elle suscite dans certains lieux et milieux. Il y démontre en particulier la réalité des apparitions démoniaques et expose les moyens de ses protéger des assauts des démons. Il illustre son propos au moyen d'exemples scripturaires et surtout de récits des premiers martyrs et des Pères du désert empruntés au Speculum historiale de Vincent de Beauvais, qu'il recopie textuellement ou résume. Nicolas Jacquier montre ainsi une bonne connaissance d'ensemble de cette oeuvre. En Anglais "An attentive reader of Vincent de Beauvais' Speculum historiale in the XVth century : the Burgundian inquisitor Nicolas Jacquier and the reality of demonic apparitions." In 1458, the Dominican inquisitor Nicolas Jacquier writes his Flagellum hereticorum fascinariorum (Scourge of Heretical Witches), which aims at proving the reality of the witches' Sabbath. He pens this work in the context of the onset of the repression of diabolical witchcraft and the disputes which arise from it in certain places and circles. He in particular demonstrates the reality of demonic apparitions and exposes the means by which one is to protect oneself from the assaults of demons. He illustrates his subject by means of scriptural examples, making particular reference to the narratives of the first martyrs and of the Fathers of the desert borrowed from Vincent de Beauvais' Speculum historiale, that he either reproduces word for word, or summarizes. Nicolas Jacquier thus demonstrates a good knowledge of the entirety of this work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans une étude précédente, nous avons démontré qu'un soutieninformatique rappelant les Recommandations de Pratiques Cliniques(RPC) améliore la gestion de la douleur aiguë aux urgences à moyenterme (JEUR 2009;22:A88). Par contre, son acceptation par lessoignants et son impact sur leurs connaissances des RPC sontinconnus. But de l'étude: mesurer l'impact du logiciel en termesd'acceptation et connaissance des RPC par l'équipe soignante.Méthode: analyse de 2 questionnaires remplis par les médecins etinfirmiers: le 1er administré en pré-, post-déploiement et 6 mois plustard (phases P1, P2 et P3) qui a évalué: a) l'appréciation subjective desconnaissances des RPC par échelle de Lickert à 5 niveaux; b) lesconnaissances objectives des RPC à l'aide de 7 questions théoriques(score max. 7 points); le 2ème administré en P2 et P3, l'utilité perçue dulogiciel (échelle à 4 niveaux). Analyses statistiques par test de chi2outest exact de Fisher; p bilatéral <0.05 significatif. Résultats: la proportiondes soignants estimant avoir une bonne connaissance des RPC apassé de 48% (45/94) en P1, à 73% (83/114) puis 84% (104/124) en P2et P3, respectivement (p <0.0001). Score des connaissances: cftableau. Entre P2 et P3, l'appréciation globale de l'utilité du logiciel s'estaméliorée: la proportion des avis favorables a passé de 59% (47/79) à82% (96/117) (p = 0.001). Conclusion: ce logiciel a été bien accepté et apermis une amélioration significative des connaissances des RPC parles soignants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude est destinée à: 1) évaluer l'impact des messages de prévention chez le personnel hospitalier sous les deux aspects de la vie professionnelle et de la vie privée (connaissance sur les modes de transmission du VIH, représentation et attitudes, comportements, estimation du risque couru de contamination par le VIH dans l'exercice de la profession, attitudes face au dépistage / face à l'information / face au secret médical, etc); 2) décrire les diverses problématiques en relation avec le SIDA chez le personnel hospitalier; 3) évaluer le rôle possible de multiplicateur de messages de prévention de cette population: si ce rôle existe, va-t-il dans le sens d'un renforcement de l'action préventive ou au contraire d'un affaiblissement de cette action par la diffusion de contre-messages ?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉMythe, tragédie et méta-théâtre sont des termes techniques provenant de disciplines comme l'anthropologie, l'histoire, la théorie et la critique littéraires. Malgré le fait que l'on puisse les assigner à des périodes historiques déterminées, ce sont des notions qui ont encore un sens à la fois actuel (elles sont indispensables pour comprendre le théâtre contemporain) et concret (à travers les différentes poétiques qui les reconfigurent, elles affectent le spectateur d'une certaine façon, ont un effet déterminé sur son corps et sa conscience). Je propose donc de les définir synthétiquement en fonction de l'effet qu'ils produisent sur le spectateur qui est conçu comme une unité de corps et de conscience. Le corps étant défini comme le lieu des émotions, la conscience sera la connaissance que le sujet acquiert de soi et du monde en fonction de ces émotions. Or, le mûthos génère des émotions que la tragédie purge à travers le phénomène de la catharsis. En revanche, le méta-théâtre interrompt le processus émotif de la conscience. Tout en appuyant mes définitions sur des notions de psychologie, neurologie et physique quantique, j'oppose tragédie et méta-théâtre de la façon suivante: la tragédie produit une forme de conscience incarnée chez le spectateur, alors que le méta-théâtre n'aboutit qu'à une forme de conscience cartésienne ou vision désincarnée. J'applique ensuite cette conception à une série de pièces importantes de l'histoire du théâtre espagnol au XXe siècle qui comportent toutes une part de réécriture d'un ou de plusieurs mythes. Je constate une généralisation du traitement méta-théâtral de la réécriture, au détriment non du tragique, mais de la tragédie proprement dite. Par conséquent, je diagnostique un déficit d'incarnation dans le théâtre espagnol au XXe siècle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1.1 AbstractThe treatment of memory disorders and cognitive deficits in various forms of mental retardation may greatly benefit from a better understanding of the molecular and cellular mechanisms of memory formation. Different forms of memory have distinct molecular requirements.Short-term memory (STM) is thought to be mediated by covalent modifications of existing synaptic molecules, such as phosphorylation or dephosphorylation of enzymes, receptors or ion channels. In contrast, long-term memoiy (LTM) is thought to be mediated by growth of new synapses and restructuring of existing synapses. There is extensive evidence that changes in gene expression and de novo protein synthesis are key processes for LTM formation. In this context, the transcription factor CREB (cAMP-response element-binding protein) was shown to be crucial. Activation of CREB requires phosphorylation of a serine residue (Ser-133), and the subsequent recruitment of a coactivator called CREB-binding protein (CBP). Moreover, we have recently shown that another coactivator called CREB Regulated Transcription Coactivator 1 (CRTC1) functions as a calcium- and cAMP-sensitive coincidence detector in neurons, and is involved in hippocampal long-term synaptic plasticity. Given the importance of cAMP and calcium signaling for plasticity-related gene expression in neurons and in astrocytes, we sought to determine the respective involvement of the CREB coactivators CBP and CRTC1 in CREB-mediated transcription.We developed various strategies to selectively interfere with these CREB coactivators in mouse primary neurons and in astrocytes in vitro. However, despite several pieces of evidence implicating CBP and/or CRTC1 in the regulation of neuronal plasticity genes, we could not clearly determine the respective requirement of these coactivators for the activation of these genes. Nevertheless, we showed that calcineurin activity, which is important for CRTC1 nuclear translocation, is necessary for the expression of some CREB-regulated plasticity genes. We associated this phenomena to physiopathological conditions observed in Down's syndrome. In addition, we demonstrated that in astrocytes, noradrenaline stimulates CREB-target gene expression through β-adrenergic receptor activation, intracellular cAMP pathway activation, and CRTC-induced CREB transactivation.Defining the respective role of CREB and its coactivators CBP and CRTC1 in neuronal and astrocytic cultures in vitro sets the stage for future in vivo studies and for the possible development of new therapeutic strategies to improve the treatment of memoiy and cognitive disorders.1.2 RésuméUne meilleure connaissance des mécanismes moléculaires et cellulaires responsables de la formation de la mémoire pourrait grandement améliorer le traitement des troubles de la mémoire ainsi que des déficits cognitifs observés dans différentes formes de pathologies psychiatriques telles que le retard mental. Les différentes formes de mémoire dépendent de processus moléculaires différents.La mémoire à court terme (STM) semble prendre forme suite à des modifications covalentes de molécules synaptiques préexistantes, telles que la phosphorylation ou la déphosphorylation d'enzymes, de récepteurs ou de canaux ioniques. En revanche, la mémoire à long terme (LTM) semble être due à la génération de nouvelles synapses et à la restructuration des synapses existantes. De nombreuses études ont permis de démontrer que les changements dans l'expression des gènes et la synthèse de protéine de novo sont des processus clés pour la formation de la LTM. Dans ce contexte, le facteur de transcription CREB (cAMP-response element-binding protein) s'est avéré être un élément crucial. L'activation de CREB nécessite la phosphorylation d'un résidu sérine (Ser-133), et le recrutement d'un coactivateur nommé CBP (CREB binding protein). En outre, nous avons récemment démontré qu'un autre coactivateur de CREB nommé CRTC1 (CREB Regulated Transcription Coactivator 1) agit comme un détecteur de coïncidence de l'AMP cyclique (AMPc) et du calcium dans les neurones et qu'il est impliqué dans la formation de la plasticité synaptique à long terme dans l'hippocampe. Etant donné l'importance des voies de l'AMPc et du calcium dans l'expression des gènes impliqués dans la plasticité cérébrale, nous voulions déterminer le rôle respectif des coactivateurs de CREB, CBP et CRTC1.Nous avons développé diverses stratégies pour interférer de façon sélective avec les coactivateurs de CREB dans les neurones et dans les astrocytes chez la souris in vitro. Nos résultats indiquent que CBP et CRTC1 sont tous deux impliqués dans la transcription dépendante de CREB induite par l'AMPc et le calcium dans les neurones. Cependant, malgré plusieurs évidences impliquant CBP et/ou CRTC1 dans l'expression de gènes de plasticité neuronale, nous n'avons pas pu déterminer clairement leur nécessité respective pour l'activation de ces gènes. Toutefois, nous avons montré que l'activité de la calcineurine, dont dépend la translocation nucléaire de CRTC1, est nécessaire à l'expression de certains de ces gènes. Nous avons pu associer ce phénomène à une condition physiopathologique observée dans le syndrome de Down. Nous avons également montré que dans les astrocytes, la noradrénaline stimule l'expression de gènes cibles de CREB par une activation des récepteurs β- adrénergiques, l'activation de la voie de l'AMPc et la transactivation de CREB par les CRTCs.Définir le rôle respectif de CREB et de ses coactivateurs CBP et CRTC1 dans les neurones et dans les astrocytes in vitro permettra d'acquérir les connaissances nécessaires à de futures études in vivo et, à plus long terme d'éventuellement développer des stratégies thérapeutiques pour améliorer les traitements des troubles cognitifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé de la thèseCette étude repose sur un double constat initial : en premier lieu, les récits français d'explorationau Tibet de la période s'étendant de 1850 à 1912 relèvent d'une tradition particulière du voyagescientifique en partie irréductible aux traditions des autres nations impérialistes de la mêmeépoque, notamment la tradition britannique à laquelle on les a souvent assimilés. En second lieu,ces récits révèlent à la fois la place centrale dégagée à la description du paysage tibétain et uneévolution unique et originale des savoirs et des représentations qui lui sont liés.Ce travail montre la rapide évolution des images du Tibet que s'est façonnées l'Europe,l'interrelation de cette histoire des représentations avec une révision des connaissances sur laterre et l'homme dans les sciences du XIXe siècle, ainsi qu'une dimension différentielle entre lesobjectifs de connaissance émanant des explorateurs français et anglais, différence due à uncontexte géopolitique hétérogène. Sur le fond de cette démarche contextualisante, le recours àl'analyse textuelle met en évidence le rôle qu'ont joué les explorateurs français dans l'histoire dessavoirs sur le Tibet.Pour des raisons inhérentes à la qualité d'écriture de ses récits et à l'acuité remarquable de sonapproche du monde tibétain, une place centrale de ce travail a été ménagée à Jacques Bacot(voyages de 1906 à 1907 - Dans les Marches tibétaines - et de 1909 à 1910 - Le Tibet révolté). Il a dèslors été fructueux de replacer ses récits dans l'histoire des savoirs et des représentations du Tibetet de les comparer aux récits majeurs d'autres explorateurs français au Tibet comme GabrielBonvalot, Fernand Grenard et Henri d'Ollone.Le paysage est une notion-clé pour comprendre le regard que portent les explorateurs sur leTibet. Or le paysage revêt des acceptions variables selon les auteurs et affiche des facettesdifférentes. Il a ainsi été possible de distinguer plusieurs dimensions : une dimension cognitive, unedimension épistémique, une dimension intersubjective et, enfin, une dimension imaginaire et sacrée. Cettedimension sacrée du paysage peut également être actualisée en tant que dimension écosymbolique.C'est là l'aboutissement des voyages de Bacot. L'explorateur, attentif à la culture tibétaine, envient à réaliser la valeur sacrée qui traverse la relation des Tibétains eux-mêmes à leurenvironnement. Le paysage ainsi compris se place au fondement d'une expérience partagée avecdes acteurs issus d'une autre culture et apparaît ainsi comme un opérateur privilégié pour« comprendre les compréhensions » (Clifford Geertz) des explorateurs, mais aussi, de proche enproche, des Tibétains.D'un point de vue épistémologique, la mise au jour de ces dimensions du paysage permetd'éviter certains écueils de la critique historienne et littéraire sur les récits de voyage au Tibet, quin'y a vu tantôt que de simples documents inertes, tantôt que le reflet d'un imaginaire purementet indéfectiblement occidental. La présente étude montre au contraire la part irréductiblequ'occupe la rencontre in situ avec l'autre et l'ailleurs dans l'élaboration conjointe desreprésentations et des savoirs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les chartes de l'ancien couvent de Romainmôtier constituent une source d'information essentielle pour l'histoire du Pays de Vaud aux Xe et XIe siècles. Toutefois, malgré leur importance, elles n'ont jamais fait l'objet d'une étude d'ensemble. Les historiens dépendent encore aujourd'hui de transcriptions partielles et fautives, imprimées au XIXe siècle. Afin de remédier à cette carence historiographique, Alexandre Pahud, qui a réuni l'ensemble des documents entre 888 et 1190, propose dans sa thèse de doctorat, soutenue à l'Université de Lausanne le 25 novembre 2008, une édition critique de tous ces textes, selon les principes de l'érudition moderne. Si les Archives cantonales vaudoises conservent la majeure partie de la documentation, d'autres institutions en Suisse et à l'étranger fournissent un apport substantiel concernant Romainmôtier avant le XIIIe siècle. Il s'agit en particulier des Archives de l'Etat de Fribourg, des Archives de l'Etat de Berne et de la Bibliothèque royale de Turin. En raison d'une importante dispersion des fonds, A. Pahud a entrepris de reconstituer le chartrier du couvent, tel qu'il devait exister à l'époque médiévale. Pour cela, il s'est basé sur les notes dorsales qui figurent au verso des parchemins, ainsi que sur les anciens inventaires. La méthode utilisée a permis de retrouver plusieurs chartes du début de l'an mil, sous la forme de copies intégrales, ainsi qu'une vingtaine de notices en allemand résumant des actes des Xe-XIIe siècles, tous ces textes étant demeurés inconnus des spécialistes. Ainsi, la thèse de A. Pahud démontre qu'il est possible d'apporter de nouveaux matériaux destinés à enrichir notre connaissance de cette période reculée et mal documentée au niveau local. En parallèle, l'auteur de la thèse a mené une expertise diplomatique des chartes de Romainmôtier, c'est-à-dire une étude de leurs caractéristiques matérielles et formelles. A l'examen, il apparaît que les moines ont davantage acquis de biens qu'ils n'en ont concédé à des tiers, symptôme d'un patrimoine en voie de formation. Les actes privés, qui relatent des transactions entre le monastère et ses voisins, représentent le 80% du corpus étudié. Ils sont rédigés tantôt au présent et à la première personne, tantôt au passé et à la troisième personne, lorsqu'ils ne mélangent pas les deux types de discours. Leur valeur juridique est assurée par une liste de témoins, à défaut de tout scellement. Dans la majorité des cas, un unique scribe établit son texte en une seule fois, après la cérémonie sanctionnant le transfert de propriété. Jusqu'en 1050, ce sont généralement des personnes extérieures à Romainmôtier qui instrumentent au profit du couvent; par la suite, les clunisiens reprennent à leur compte la confection des actes qui les concernent. Curieusement, on constate une disparition radicale de l'acte privé à Romainmôtier entre 1167 et 1198, phénomène qui tranche complètement sur la conjoncture régionale. Dans la dernière partie de sa thèse, A. Pahud présente une nouvelle histoire du couvent de Romainmôtier, qui aborde à la fois les questions politiques et les structures socioéconomiques. Durant le premier tiers du XIe siècle, les clunisiens de Romainmôtier bénéficient de la protection du dernier roi de Bourgogne, Rodolphe III (993-1032), qui fonde la puissance temporelle du monastère. A cette époque, l'institution est administrée directement par l'abbé de Cluny, Odilon, responsable de Romainmôtier à titre personnel. Cependant, la disparition de Rodolphe III, dont la succession est contestée, inaugure une période de grave insécurité dans nos régions. Ces troubles profitent avant tout aux seigneurs locaux, qui prennent appui sur un château pour imposer leur domination au détriment des pouvoirs ecclésiastiques. Au milieu du XIe siècle, les possessions de Romainmôtier, qui s'étendent de chaque côté du Jura, sont menacées par trois puissants lignages, les Grandson, les Salins et les Joux. Face à cette situation périlleuse, les religieux s'adressent tour à tour au pape, à l'empereur germanique, ainsi qu'aux comtes de Bourgogne, dépositaires d'une autorité publique en Franche-Comté. Mais bien souvent, les moines doivent transiger avec leurs adversaires, en passant avec eux des accords coûteux et fragiles. Cela n'empêche pas qu'une certaine coopération s'établisse à l'occasion avec le monde laïque, qui contribue par ses aumônes au développement économique du monastère. Romainmôtier tire ses principales ressources de l'agriculture, tant au Pays de Vaud qu'en Franche-Comté; le travail de la vigne est bien attesté sur La Côte, dès la fin du Xe siècle, tandis que l'élevage ne joue qu'un rôle secondaire; là où ils sont bien implantés, les moines parviennent à prendre le contrôle des moulins; à Salins (France), ils exploitent eux-mêmes le sel nécessaire à leurs besoins. L'ensemble de ces observations s'appuie sur des tableaux et des annexes, qui ajoutent à la critique interne des sources une dimension quantitative. Afin de divulguer les résultats obtenus, A. Pahud envisage de publier prochainement sa thèse dans les Mémoires et documents de la Société d'histoire de la Suisse romande.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse propose un regard en profondeur sur les fondements de la connaissance en phonologie structurale. Elle s articule autour de cinq objectifs. Tout d'abord, un cadre précis de discussion métathéorique en phonologie est développé, admis qu'il n'existe tout simplement pas de méthode du genre permettant une critique systématique du contenu de programmes de recherche différents dans ce domaine. Cette méthodologie est ensuite appliquée à la phonologie fonctionnelle, celle issue de renseignement de Nikolaï S. Troubetz- koy et du fonctionnalisme d'André Martinet. De plus, elle est appliquée à un second programme de recherche, en marge de la réflexion centrale. Il s'agit de la phonologie générative et, plus spécifiquement, d'une théorie contemporaine à l'intérieur de celle-ci, la théorie de loptimalité, dont le caractère représentatif du cadre général est également abordé. Cet exercice comparatif permet de dégager les relations entre les contenus respectifs des deux programmes à l'étude pour, enfin, évaluer le statut épistémologique de la phonologie fonctionnelle.Il s'avère que la connaissance de la langue issue de la phonologie fonctionnelle se distingue clairement du domaine de la phonologie générative dégagé à travers l'étude de la théorie de loptimalité (et vice versa). Le partage des mêmes fondements phonétiques, d'une terminologie parfois trompeusement homogène et de la notion d'explication fonctionnelle masque la profonde opposition de valeur épistémologique accordée à des prémisses acceptées d'emblée par tous (l'opposition significative, par exemple, ou la réalité psychologique).En somme, ce travail remet en question une vision cumulative et rectiligne de l'histoire de la phonologie par l'épistémologie. Porter un regard critique sur la motivation des théories et sur les choix terminologiques permet de dégager les fondements de deux traditions de pensée qui ne se chevauchent pas là où celles-ci se définissent respectivement en tant que phonologie. Ainsi, du point de vue de la connaissance, la phonologie américaine n'inclut jamais ni ne peut contredire le fonctionnalisme européen, qui dès lors représente un courant parallèle plutôt que primitif.