107 resultados para Sand, George (1804-1876). Elle et lui


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Problématique : L'insertion vélamenteuse du cordon ombilical est reportée dans environ 1% des grossesses uniques et semble associée à de sévères complications obstétricales. Mais l'étude de cette insertion reste encore lacunaire en ce qui concerne les grossesses gémellaires. Depuis quelques années, ces dernières sont en augmentation et doivent être considérées comme des grossesses à risque. En effet, les jumeaux occupent une place toujours plus importante dans les unités de néonatologie, du fait de la morbidité particulière de ces grossesses. Ces dernières peuvent de plus s'accompagner d'autres anomalies qui peuvent influencer la croissance des jumeaux déjà prétérités par rapport aux bébés uniques. Parmi celles-ci, l'insertion vélamenteuse du cordon. Existe-il une association entre grossesse gémellaire et insertion vélamenteuse ? Quelles seraient les conséquences de ce type d'insertion sur l'évolution de la grossesse ?¦Objectifs : Evaluer l'incidence de la survenue d'une insertion vélamenteuse du cordon ombilical dans les grossesses gémellaires par rapport aux grossesses uniques et la différence de cette incidence entre placentas monochoriaux et bichoriaux. Analyser les conséquences majeures qui peuvent lui être associées.¦Méthode : Analyse rétrospective de tous les placentas de grossesses gémellaires reçus pour examen à l'institut universitaire de pathologie anatomique (IUPA) de Lausanne entre janvier 2000 et septembre 2010, ainsi que du suivi périnatal des enfants issus de ces grossesses.¦Résultats : 722 placentas issus de grossesses gémellaires ont été reçus et analysés à l'IUPA. L'insertion vélamenteuse du cordon est rencontrée dans plus de 17% des grossesses gémellaires. Elle représente plus de 9% de toutes les insertions lors de ces grossesses. Elle est retrouvée dans 35% des cas lorsque le placenta est monochorial et dans 10% des cas lorsque le placenta est bichorial.¦Notre étude a démontré une influence significative de l'insertion vélamenteuse sur l'âge gestationnel, le poids du placenta, la croissance foetale (poids > taille > PC), la durée d'hospitalisation et la mortalité. La monochorialité est le seul facteur de risque à avoir été mis en évidence.¦Conclusion : Avec l'augmentation de l'âge maternel et le recours de plus en plus fréquent aux traitements de fertilité, le nombre de grossesses gémellaires devrait s'accroitre dans les années à venir et, avec elles, le nombre d'insertions vélamenteuses du cordon. Cependant, le diagnostic d'une telle insertion ne peut être que suspecté lors d'un examen ultrasonographique en cours de grossesse. Il est donc difficile de l'identifier avant la naissance et ainsi de prévoir ses conséquences. Mais en étant conscient des complications éventuelles que peut engendrer cette insertion, nous serions plus à même d'y faire face.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Introduction générale : Depuis peu, la colère gronde au sein des actionnaires. Certains d'entre eux s'estiment écartés à tort de certaines décisions importantes et se plaignent de ne pouvoir exercer aucune influence sur la façon dont est gérée la société, dont ils sont pourtant propriétaires. Ce sentiment d'impuissance et même d'injustice est exacerbé par l'octroi, à certains dirigeants parfois peu scrupuleux, de rémunérations astronomiques et en décalage avec les résultats obtenus. Bien que l'assemblée générale soit, aux termes de l'art. 698 al. 1 CO, le pouvoir suprême de la société, les administrateurs et les directeurs donnent l'impression d'être omnipotents et exempts de toute responsabilité Certains actionnaires estiment en d'autres termes que les sociétés anonymes souffrent d'un manque de contrôle. Ce sentiment correspond-il à la réalité ? Notre étude tente de répondre à cette question en examinant l'éventuel rapport hiérarchique entre l'assemblée générale et le conseil d'administration, les devoirs de ce dernier, les conditions auxquelles il peut déléguer la gestion, enfin, la responsabilité de ses membres. Face à l'ampleur du sujet, nous avons été contraint d'effectuer des choix, forcément arbitraires. Nous avons décidé d'écarter la problématique des groupes de sociétés. De même, les législations sur les bourses, les banques et les fusions ne seront que mentionnées. Signalons enfin que certaines problématiques abordées par notre étude occupent actuellement le législateur. Nous avons dès lors tenu compte des travaux préparatoires effectués jusqu'à la fin de l'année 2008. Nous commencerons par étudier dans une première partie les relations et l'éventuel rapport hiérarchique entre l'assemblée générale, pouvoir suprême de la société, et le conseil d'administration, chargé d'exercer la haute direction et de gérer les affaires de la société. La détermination de leurs positions hiérarchiques respectives devrait nous permettre de savoir si et comment l'assemblée générale peut s'immiscer dans les compétences du conseil d'administration. Nous nous intéresserons ensuite à la gestion de la société, le législateur postulant qu'elle doit être conjointement exercée par tous les membres du conseil d'administration dans la mesure où elle n'a pas été déléguée. Or, comme un exercice conjoint par tous les administrateurs ne convient qu'aux plus petites sociétés anonymes, la gestion est très fréquemment déléguée en pratique. Nous examinerons ainsi les conditions formelles et les limites matérielles de la délégation de la gestion. Nous étudierons en particulier les portées et contenus respectifs de l'autorisation statutaire et du règlement d'organisation, puis passerons en revue la liste de compétences intransmissibles et inaliénables du conseil d'administration dressée par l'art. 716a al. 1 CO. Nous nous attarderons ensuite sur les différents destinataires de la délégation en insistant sur la flexibilité du système suisse, avant de considérer la problématique du cumul des fonctions à la tête de la société, et de nous demander si la gestion peut être déléguée à l'assemblée générale. Nous conclurons la première partie en étudiant la manière dont l'assemblée générale peut participer à la gestion de la société, et exposerons à cet égard les récentes propositions du Conseil fédéral. Dans une deuxième partie, nous constaterons que face à l'ampleur et à la complexité des tâches qui lui incombent, il est aujourd'hui largement recommandé au conseil d'administration d'une grande société de mettre en place certains comités afin de rationnaliser sa façon de travailler et d'optimiser ainsi ses performances. Contrairement aux développements menés dans la première partie, qui concernent toutes les sociétés anonymes indépendamment de leur taille, ceux consacrés aux comités du conseil d'administration s'adressent principalement aux sociétés ouvertes au public et aux grandes sociétés non cotées. Les petites et moyennes entreprises seraient toutefois avisées de s'en inspirer. Nous traiterons de la composition, du rôle et des tâches de chacun des trois comités usuels que sont le comité de contrôle, le comité de rémunération et le comité de nomination. Nous exposerons à cet égard les recommandations du Code suisse de bonne pratique pour le gouvernement d'entreprise ainsi que certaines règles en vigueur en Grande-Bretagne et aux Etats-Unis, états précurseurs en matière de gouvernement d'entreprise. L'étude des tâches des comités nous permettra également de déterminer l'étendue de leur propre pouvoir décisionnel. Nous aborderons enfin la problématique particulièrement sensible de la répartition des compétences en matière de rémunération des organes dirigeants. Notre troisième et dernière partie sera consacrée à la responsabilité des administrateurs. Nous exposerons dans un premier temps le système de la responsabilité des administrateurs en général, en abordant les nombreuses controverses dont il fait l'objet et en nous inspirant notamment des récentes décisions du Tribunal fédéral. Comme la gestion n'est que rarement exercée conjointement par tous les administrateurs, nous traiterons dans un deuxième temps de la responsabilité des administrateurs qui l'ont déléguée. A cet égard, nous nous arrêterons également sur les conséquences d'une délégation ne respectant pas les conditions formelles. Nous terminerons notre travail par l'étude de la responsabilité des administrateurs en rapport avec les tâches confiées à un comité de conseil d'administration. Comme le conseil d'administration a des attributions intransmissibles et inaliénables et que les principes d'un bon gouvernement d'entreprise lui recommandent de confier certaines de ces tâches à des comités spécialisés, il s'agit en effet de déterminer si et dans quelle mesure une répartition des tâches au sein du conseil d'administration entraîne une répartition des responsabilités.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Résumé La Na,K-ATPase est une protéine transmembranaire, présente dans toutes les cellules de mammifères et indispensable à la viabilité cellulaire. Elle permet le maintien des gradients sodiques et potassiques à l'origine du potentiel membranaire en transportant 3 Na+ en dehors de la cellule contre 2 K+, grâce à l'énergie fournie par l'hydrolyse d'une molécule d'ATP. Le potentiel membranaire est indispensable au maintien de l'excitabilité cellulaire et à la transmission de l'influx nerveux. Il semblerait que la Na,K-ATPase soit liée à l'hypertension et à certains troubles neurologiques comme la Migraine Familiale Hémiplégique (1VIFH). La MFH est une forme de migraine avec aura, qui se caractérise par une hémiparésie. Cette forme de migraine est très rare. Elle se transmet génétiquement sur un mode autosomique dominant. Plusieurs mutations localisées dans le gène de la Na,K-ATPase ont été identifiées durant ces 3 dernières années. C'est la première fois qu'une maladie génétique est associée au gène de la Na,K-ATPase. La compréhension du fonctionnement de cette protéine peut donner des informations sur les mécanismes conduisant à ces pathologies. On sait que la fonction d'une protéine est liée à sa structure. L'étude de sa fonction nécessite donc l'étude de sa structure. Alors que la structure de la SERCA a été déterminée à haute résolution, par cristallographie, celle de la Na,K-ATPase ne l'est toujours pas. Mais ces 2 ATPases présentent une telle homologie qu'un modèle de la Na,K-ATPase a pu être élaboré à partir de la structure de la SERCA. Les objectifs de cette étude sont d'une part, de comprendre le contrôle de l'accessibilité du K+ extracellulaire àses sites de liaison. Pour cela, nous avons ciblé cette étude sur la 2ìème et la 31eme boucle extracellulaire, qui relient respectivement les segments transmembranaires (STM) 3-4 et 5-6. Le choix s'est porté sur ces 2 boucles car elles bordent le canal des cations formés des 4ième' Sième et 6'ème hélices. D'autre part, nous avons également essayer de comprendre les effets des mutations, liées à la Migraine Familiale Hémiplégique de type 2 (MFH2), sur la fonctionnalité de la Na,K-ATPase. Alors que les STM et les domaines cytoplasmiques sont relativement proches entre la Na,KATPase et la SERCA, les boucles extracellulaires présentent des différences. Le modèle n'est donc pas une approche fiable pour déterminer la structure et la fonction des régions extracellulaires. Nous avons alors utilisé une approche fonctionnelle faisant appel à la mutation dirigée puis à l'étude de l'activité fonctionnelle de la Na,K ATPase par électrophysiologie sur des ovocytes de Xenopus. En conclusion, nous pouvons dire que la troisième boucle extracellulaire participerait à la structure de la voie d'entrée des cations et que la deuxième boucle extracellulaire semble impliquée dans le contrôle de l'accessibilité des ions K+àses sites de liaison. Concernant les mutations associées à la MFH2, nos résultats ont montré une forte diminution de l'activité fonctionnelle de la pompe Na,K, inférieure aux conditions physiologiques de fonctionnement, et pour une des mutations nous avons observés une diminution de l'affmité apparente au K+ externe. Nous poumons faire l'hypothèse que l'origine pathologique de la migraine est liée à une diminution de l'activité de la pompe à Na+. Summary The Na,K-ATPase is a transmembrane protein, present in all mammalian cells and is necessary for the viability of the cells. It maintains the gradients of Na+ and K+ involved in the membrane potential, by transporting 3Na+ out the cell, and 2K+ into the cell, using the energy providing from one ATP molecule hydrolysis. The membrane potential is necessary for the cell excitability and for the transmission of the nervous signal. Some evidence show that Na,K-ATPase is involved in hypertension and neurological disorders like the Familial Hemiplegic Migraine (FHM). La FHM is a rare form of migraine characterised by aura and hemiparesis and an autosomal dominant transmission. Several mutations linked to the Na,KATPase gene have been identified during these 3 last years. It's the first genetic disorder associated with the Na,K-ATPase gene. Understand the function of this protein is important to elucidate the mechanisms implicated in these pathologies. The function of a protein is linked with its structure. Thus, to know the function of a protein, we need to know its structure. While the Ca-ATPase (SERCA) has been crystallised with a high resolution, the structure of the Na,K-ATPase is not known. Because of the great homology between these 2 ATPases, a model of the Na,K-ATPase was realised by comparing with the structure of the SERCA. The aim of this study is on one side, understand the control of the extracellular K+ accessibility to their binding sites. Because of theirs closed proximity with the cation pathway, located between the 4th, 5th and 6th helices, we have targeted this study on the 2nd and the 3rd extracellular loops linking respectively the transmembrane segment (TMS) 3 and 4, and the TMS 5 and 6. And on the other side, we have tried to understand the functional effects of mutations linked with the Familial Hemiplegic Migraine Type 2 (FHM2). In contrast with the transmembrane segments and the cytoplasmic domains, the extracellular loops show lots of difference between Na,K-ATPase and SERCA, the model is not a good approach to know the structure and the function of the extracellular loops. Thus, we have used a functional approach consisting in directed mutagenesis and the study of the functional activity of the Na,K-ATPase by electrophysiological techniques with Xenopus oocytes. In conclusion, we have demonstrated that the third extracellular loop could participate in the structure of the entry of the cations pathway and that the second extracellular loop could control the K+ accessibility to their binding sites. Concerning the mutations associated with the FHM2, our results showed a strong decrease in the functional activity of the Na,K-pump under physiological conditions and for one of mutations, induce a decrease in the apparent external K+ affinity. We could make the hypothesis that the pathogenesis of migraine is related to the decrease in Na,K-pump activity. Résumé au large publique De la même manière que l'assemblage des mots forme des phrases et que l'assemblage des phrases forme des histoires, l'assemblage des cellules forme des organes et l'ensemble des organes constitue les êtres vivants. La fonction d'une cellule dans le corps humain peut se rapprocher de celle d'une usine hydroélectrique. La matière première apportée est l'eau, l'usine électrique va ensuite convertir l'eau en énergie hydraulique pour fournir de l'électricité. Le fonctionnement de base d'une cellule suit le même processus. La cellule a besoin de matières premières (oxygène, nutriments, eau...) pour produire une énergie sous forme chimique, l'ATP. Cette énergie est utilisée par exemple pour contracter les muscles et permet donc à l'individu de se déplacer. Morphologiquement la cellule est une sorte de petit sac rempli de liquide (milieu intracellulaire) baignant elle-même dans le liquide (milieu extracellulaire) composant le corps humain (un adulte est constitué environ de 65 % d'eau). La composition du milieu intracellulaire est différente de celle du milieu extracellulaire. Cette différence doit être maintenue pour que l'organisme fonctionne correctement. Une des différences majeures est la quantité de sodium. En effet il y a beaucoup plus de sodium à l'extérieur qu'à l'intérieur de la cellule. Bien que l'intérieur de la cellule soit isolé de l'extérieur par une membrane, le sodium arrive à passer à travers cette membrane, ce qui a tendance à augmenter la quantité de sodium dans la cellule et donc à diminuer sa différence de concentration entre le milieu extracellulaire et le milieu intracellulaire. Mais dans les membranes, il existe des pompes qui tournent et dont le rôle est de rejeter le sodium de la cellule. Ces pompes sont des protéines connues sous le nom de pompe à sodium ou Na,K-ATPase. On lui attribue le nom de Na,K-ATPase car en réalité elle rejette du sodium (Na) et en échange elle fait entrer dans la cellule du potassium (K), et pour fonctionner elle a besoin d'énergie (ATP). Lorsque les pompes à sodium ne fonctionnent pas bien, cela peut conduire à des maladies. En effet la Migraine Familiale Hémiplégique de type 2, est une migraine très rare qui se caractérise par l'apparition de la paralysie de la moitié d'un corps avant l'apparition du mal de tête. C'est une maladie génétique (altération qui modifie la fonction d'une protéine) qui touche la pompe à sodium située dans le cerveau. On a découvert que certaines altérations (mutations) empêchent les pompes à sodium de fonctionner correctement. On pense alors que le développement des migraines est en partie dû au fait que ces pompes fonctionnent moins bien. Il est important de bien connaître la fonction de ces pompes car cela permet de comprendre des mécanismes pouvant conduire à certaines maladies, comme les migraines. En biologie, la fonction d'une protéine est étudiée à travers sa structure. C'est pourquoi l'objectif de cette thèse a été d'étudier la structure de la Na,K-ATPase afin de mieux comprendre son mécanisme d'action.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Résumé Avant même son premier écrit, le philologue Nietzsche parle de sa philosophie en termes de « platonisme inversé ». Il se présente par là aux antipodes de Platon et de la pensée initiée par ce dernier. Platon lui-même, Nietzsche le lit comme accomplissement d'une longue tradition inspirée par les Muses - en ce sens "musicale", artistique - à dire la phetsis ou vie tragique (qui sont chez lui le même). Selon elle, la vie réside dans le double mouvement d'éclosion productrice à partir des profondeurs cachées et de retour destructeur dans les ressources de celles-ci. Nietzsche y voit l'oeuvre de Dionysos : l'abyssal et surabondant dieu artiste du jeu de la vie et de la mort. Or ne pouvant souffrir cette vie dionysiaque, Platon en serait venu à en imaginer une autre, dénuée d'ombre et de destruction, où tout apparaît en son éclosion suprême : le monde métaphysique, intelligible, des idées morales qui, depuis, guide tout homme occidental qui se respecte. Dionysos est banni de la pensée, contraint de se réfugier dans les profondeurs de la mer. Quelques deux millénaires plus tard, la figure divine ré-émerge chez certains prédécesseurs de Nietzsche, puis se montre au grand jour dans La naissance de la tragédie (1871), le premier livre du philologue-philosophe. Dionysos y apparaît dans une double opposition : ambiguë face à Apollon, le représentant de la belle apparence venant voiler le sombre fond dionysiaque ; et radicale face à Socrate (le maître de Platon) qui, en Apollon outré, initie le tournant philosophico-scientifique et moral hostile à la vie tragique. Puis Dionysos redisparaît durant plus de douze ans de la surface de l'oeuvre de Nietzsche. Or s'il se retire, c'est pour se nettoyer de ses ambiguïtés initiales (liées au dualisme métaphysique) et poursuivre sa lutte contre Socrate à partir des profondeurs, le visage masqué. Lorsque, dès 1883, il fait retour pour devenir la figure centrale des derniers écrits, il se trouve alors confronté à un nouvel adversaire, plus coriace et plus dangereux encore que Socrate : le Crucifié, représentation populaire et absolutisée des idées socratiques. Inspiré, poussé, porté et tourmenté par son dieu, Nietzsche fait dès lors littéralement équipe avec Dionysos pour promouvoir la libération de la vie phusico-tragique en train d'étouffer dans les filets socratico-chrétiens. Cette libération se joue notamment dans la figure d'Ariane : dans les Dithyrambes de Dionysos (1890) - le dernier texte (poétique) de Nietzsche -, elle incarne si bien la phetsis dionysiaque qu'elle provoque in fine l'épiphanie du dieu tragique, amoureux et jubilant de s'y reconnaître comme dans un miroir.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

RésuméA l'image de son personnage, qui se déplace en subissant toutes sortes d'expériences lui permettant de « grandir », le roman d'apprentissage traverse les siècles et les cultures en Occident, mais trouve aussi un écho tout à fait particulier parmi de nombreux romans d'Afrique noire francophone. Ce genre littéraire se découvre tant parmi les productions de l'époque coloniale que parmi les plus contemporaines et peut être envisagé en tant que métaphore d'une autonomie langagière et littéraire progressivement acquise, tout en gardant à l'esprit que les catégories génériques occidentales n'ont pas à être dupliquées telles quelles sur les productions fictionnelles africaines. L'hypothèse de travail associe les dimensions diachronique et synchronique pour observer un croisement de pratiques formelles et génériques dans les textes de fiction romanesque d'Afrique subsaharienne. Elle utilise dans ce cadre les romans Karim d'Ousmane Socé (1935) et Une Vie de boy de Ferdinand Oyono (1956).AbstractLike their protagonists, who undergo a journey and in the process come of age, coming-on-age novels have abounded and evolved throughout the centuries in the West - but they are also present in sub-Saharian African literature. The coming-of-age genre was popular during colonial times and is even more so today. Where African Francophone literature is concerned, we can take this type of novel as a metaphor for its gradually acquired linguistic and literary autonomy, keeping in mind that Western genres and patterns cannot be applied willy-nilly to this new generation of African litterateurs. Taking into account both historical and territorial aspects, we will examine African Francophone literature, stylistically and thematically, in its approch to gender. To do so, we will analyse Ousmane Socé's Karim (1935) and Ferdinand Oyono's Une vie de boy (A boy servant's life, 1956).

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La présente recherche se propose de désobstruer un certain nombre de catégories « esthétiques », au sens étendu du terme, de leur métaphysique implicite. La thèse que je souhaite défendre se présente sous la forme d'un paradoxe : d'une part, le sens originel d'« esthétique » a été perdu de vue, d'autre part, malgré cet oubli, quiconque s'interroge philosophiquement sur les beaux-arts reçoit, nolens volens, Baumgarten en héritage. Avec AEsthetica (1750/1758), ouvrage inachevé et hautement problématique, nous pourrions dire, citant René Char, qu'il s'agit-là d'un « héritage précédé d'aucun testament ». En d'autres termes, ce qui nous échoit nous occupe, voire nous préoccupe, sans que nous disposions des outils conceptuels pour nous y rapporter librement. Soyons clairs, je ne soutiens pas que l'esthétique philosophique, telle qu'elle s'énonce à ses débuts, soit un passage obligé pour penser l'art, et ce d'autant plus qu'il ne s'agit pas d'un passage, mais proprement d'une impasse. Ce que je veux dire, c'est que Kant répond à Baumgarten, et que Hegel répond à Kant et ainsi de suite. Il n'y a pas de tabula rasa dans l'histoire de la pensée, et l'oubli de l'historicité d'une pensée est le meilleur moyen de la neutraliser en simple supplément culturel, tout en demeurant entièrement captifs de ses présupposés.Au départ, la question qui motivait implicitement la rédaction de cette recherche se formulait ainsi : « Dans quelle mesure la philosophie énonce-t-elle quelque chose d'important au sujet des beaux-arts ? » Au fil du temps, la question s'est inversée pour devenir : « Qu'est-ce que les écrits sur les beaux- arts, tels qu'ils foisonnent au 18e siècle, nous enseignent à propos de la philosophie et des limites inhérentes à sa manière de questionner ?» Et gardons-nous de penser qu'une telle inversion cantonne la question de l'esthétique, au sens très large du terme, à n'être qu'une critique immanente à l'histoire de la philosophie. Si la philosophie était une « discipline » parmi d'autres, un « objet » d'étude possible dans la liste des matières universitaires à choix, elle ne vaudrait pas, à mon sens, une seule heure de peine. Mais c'est bien parce que la philosophie continue à orienter la manière dont nous nous rapportons au « réel », au « monde » ou à l'« art » - je place les termes entre guillemets pour indiquer qu'il s'agit à la fois de termes usuels et de concepts philosophiques - que les enjeux de la question de l'esthétique, qui est aussi et avant tout la question du sentir, excèdent l'histoire de la philosophie.Pour introduire aux problèmes soulevés par l'esthétique comme discipline philosophique, j'ai commencé par esquisser à grands traits la question du statut de l'image, au sens le plus général du terme. Le fil conducteur a été celui de l'antique comparaison qui conçoit la poésie comme une « peinture parlante » et la peinture comme une « poésie muette ». Dans le prolongement de cette comparaison, le fameux adage ut pictura poesis erit a été conçu comme le véritable noeud de toute conception esthétique à venir.Il s'est avéré nécessaire d'insister sur la double origine de la question de l'esthétique, c'est-à-dire la rencontre entre la pensée grecque et le christianisme. En effet, l'un des concepts fondamentaux de l'esthétique, le concept de création et, plus spécifiquement la possibilité d'une création ex nihiio, a été en premier lieu un dogme théologique. Si j'ai beaucoup insisté sur ce point, ce n'est point pour établir une stricte identité entre ce dogme théologique et le concept de création esthétique qui, force est de l'admettre, est somme toute souvent assez flottant dans les écrits du 18e siècle. L'essor majeur de la notion de création, couplée avec celle de génie, sera davantage l'une des caractéristiques majeures du romantisme au siècle suivant. La démonstration vise plutôt à mettre en perspective l'idée selon laquelle, à la suite des théoriciens de l'art de la Renaissance, les philosophes du Siècle des Lumières ont accordé au faire artistique ou littéraire une valeur parfaitement inédite. Si l'inventeur du terme « esthétique » n'emploie pas explicitement le concept de création, il n'en demeure pas moins qu'il attribue aux poètes et aux artistes le pouvoir de faire surgir des mondes possibles et que ceux-ci, au même titre que d'autres régions de l'étant, font l'objet d'une saisie systématique qui vise à faire apparaître la vérité qui leur est propre. Par l'extension de l'horizon de la logique classique, Baumgarten inclut les beaux-arts, à titre de partie constituante des arts libéraux, comme objets de la logique au sens élargi du terme, appelée « esthético- logique ». L'inclusion de ce domaine spécifique d'étants est justifiée, selon les dires de son auteur, par le manque de concrétude de la logique formelle. Or, et cela n'est pas le moindre des paradoxes de l'esthétique, la subsomption des beaux-arts sous un concept unitaire d'Art et la portée noétique qui leur est conférée, s'opère à la faveur du sacrifice de leur singularité et de leur spécificité. Cela explique le choix du titre : « métaphysique de l'Art » et non pas « métaphysique de l'oeuvre d'art » ou « métaphysique des beaux-arts ». Et cette aporîe constitutive de la première esthétique est indépassable à partir des prémices que son auteur a établies, faisant de la nouvelle discipline une science qui, à ce titre, ne peut que prétendre à l'universalité.Au 18e siècle, certaines théories du beau empruntent la voie alternative de la critique du goût. J'ai souhaité questionner ces alternatives pour voir si elles échappent aux problèmes posés par la métaphysique de l'Art. Ce point peut être considéré comme une réplique à Kant qui, dans une note devenue célèbre, soutient que « les Allemands sont les seuls à se servir du mot "esthétique" pour désigner ce que d'autres appellent la critique du goût ». J'ai démontré que ces deux termes ne sont pas synonymes bien que ces deux positions philosophiques partagent et s'appuient sur des présupposés analogues.La distinction entre ces deux manières de penser l'art peut être restituée synthétiquement de la sorte : la saisie systématique des arts du beau en leur diversité et leur subsomption en un concept d'Art unitaire, qui leur attribue des qualités objectives et une valeur de vérité indépendante de toute saisie subjective, relègue, de facto, la question du jugement de goût à l'arrière-plan. La valeur de vérité de l'Art, définie comme la totalité des qualités intrinsèques des oeuvres est, par définition, non tributaire du jugement subjectif. Autrement dit, si les oeuvres d'art présentent des qualités intrinsèques, la question directrice inhérente à la démarche de Baumgarten ne peut donc nullement être celle d'une critique du goût, comme opération subjective {Le. relative au sujet, sans que cela soit forcément synonyme de « relativisme »), mais bien la quête d'un fondement qui soit en mesure de conférer à l'esthétique philosophique, en tant que métaphysique spéciale, sa légitimité.Ce qui distingue sur le plan philosophique le projet d'une métaphysique de l'Art de celui d'une esthétique du goût réside en ceci que le premier est guidé, a priori, par la nécessité de produire un discours valant universellement, indépendant des oeuvres d'art, tandis que le goût, pour s'exercer, implique toujours une oeuvre singulière, concrète, sans laquelle celui-ci ne reste qu'à l'état de potentialité. Le goût a trait au particulier et au contingent, sans être pour autant quelque chose d'aléatoire. En effet, il n'est pas un véritable philosophe s'interrogeant sur cette notion qui n'ait entrevu, d'une manière ou d'une autre, la nécessité de porter le goût à la hauteur d'un jugement, c'est-à-dire lui conférer au moins une règle ou une norme qui puisse le légitimer comme tel et le sauver du relativisme, pris en son sens le plus péjoratif. La délicatesse du goût va même jusqu'à être tenue pour une forme de « connaissance », par laquelle les choses sont appréhendées dans toute leur subtilité. Les différents auteurs évoqués pour cette question (Francis Hutcheson, David Hume, Alexander Gerard, Louis de Jaucourt, Montesquieu, Voltaire, D'Alembert, Denis Diderot, Edmund Burke), soutiennent qu'il y a bien quelque chose comme des « normes » du goût, que celles-ci soient inférées des oeuvres de génie ou qu'elles soient postulées a priori, garanties par une transcendance divine ou par la bonté de la Nature elle-même, ce qui revient, en dernière instance au même puisque le geste est similaire : rechercher dans le suprasensible, dans l'Idée, un fondement stable et identique à soi en mesure de garantir la stabilité de l'expérience du monde phénoménal.La seconde partie de la recherche s'est articulée autour de la question suivante : est-ce que les esthétiques du goût qui mesurent la « valeur » de l'oeuvre d'art à l'aune d'un jugement subjectif et par l'intensité du sentiment échappent aux apories constitutives de la métaphysique de l'Art ?En un sens, une réponse partielle à cette question est déjà contenue dans l'expression « esthétique du goût ». Cette expression ne doit pas être prise au sens d'une discipline ou d'un corpus unifié : la diversité des positions présentées dans cette recherche, bien que non exhaustive, suffit à le démontrer. Mais ce qui est suggéré par cette expression, c'est que ces manières de questionner l'art sont plus proches du sens original du terme aisthêsis que ne l'est la première esthétique philosophique de l'histoire de la philosophie. L'exercice du goût est une activité propre du sentir qui, en même temps, est en rapport direct avec la capacité intellectuelle à discerner les choses et à un juger avec finesse et justesse.Avec le goût esthétique s'invente une espèce de « sens sans organe » dont la teneur ontologique est hybride, mais dont le nom est identique à celui des cinq sens qui procurent la jouissance sensible la plus immédiate et la moins raisonnable qui soit. Par la reconnaissance de l'existence d'un goût « juste » et « vrai », ou à défaut, au moins de l'existence d'une « norme » indiscutable de celui-ci, c'est-à-dire de la possibilité de formuler un jugement de goût une tentative inédite de spîritualisation de la sensibilité a lieu.Par conséquent, il est loin d'être évident que ce que j'ai appelé les esthétiques du goût échappent à un autre aspect aporétique de la métaphysique de l'Art, à savoir : passer à côté du caractère singulier de telle ou telle oeuvre afin d'en dégager les traits universels qui permettent au discours de s'étayer. Dans une moindre mesure, cela est même le cas dans les Salons de Diderot où, trop souvent, le tableau sert de prétexte à l'élaboration d'un discours brillant.Par contre, tout l'intérêt de la question du goût réside en ceci qu'elle présente, de façon particulièrement aiguë, les limites proprement métaphysiques dont l'esthétique, à titre de discipline philosophique, se fait la légataire et tente à sa manière d'y remédier par une extension inédite du concept de vérité et sa caractérisai ion en termes de vérité « esthéticologique » au paragraphe 427 de Y Esthétique. Cela dit, le fait même que dans l'empirisme la sensibilité s'oppose, une fois de plus, à l'intellect comme source de la naissance des idées - même si c'est dans la perspective d'une réhabilitation de la sensibilité -, indique que l'horizon même de questionnement demeure inchangé. Si le goût a pu enfin acquérir ses lettres de noblesse philosophique, c'est parce qu'il a été ramené, plus ou moins explicitement, du côté de la raison. Le jugement portant sur les arts et, de manière plus générale, sur tout ce qui est affaire de goût ne saurait se limiter au sentiment de plaisir immédiat. Le vécu personnel doit se transcender en vertu de critères qui non seulement permettent de dépasser le relativisme solipsiste, mais aussi de donner forme à l'expérience vécue afin qu'elle manifeste à chaque fois, et de façon singulière, une portée universelle.Le goût, tel qu'il devient un topos des discours sur l'art au 18e siècle, peut, à mon sens, être interprété comme l'équivalent de la glande pinéale dans la physiologie cartésienne : l'invention d'un « je ne sais quoi » situé on ne sait où, sorte d'Hermès qui assure la communication entre l'âme et le corps et sert l'intermédiaire entre l'intellect et la sensibilité. L'expérience décrite dans l'exercice du goût implique de facto une dimension par définition occultée par la métaphysique de l'Art : le désir. Pour goûter, il faut désirer et accepter d'être rempli par l'objet de goût. Dans l'exercice du goût, le corps est en jeu autant que l'intellect, il s'agit d'une expérience totale dans laquelle aucune mise à distance théorétique n'est, en un premier temps, à même de nous prémunir de la violence des passions qui nous affectent. L'ambiguïté de cette notion réside précisément dans son statut ontologiquement problématique. Mais cette incertitude est féconde puisqu'elle met en exergue le caractère problématique de la distinction entre corps et esprit. Dans la notion de goût est contenue l'idée que le corps pense aussi et que, par voie de conséquence, la sensibilité n'est pas dépourvue de dimension spirituelle. Reste que formuler les choses de la sorte revient à rejouer, en quelque sorte, l'antique diaphorâ platonicienne et à convoquer, une fois de plus, les grandes oppositions métaphysiques telles que corps et âme, sensible et intelligible, matière et forme.La troisième partie est entièrement consacrée à Shaftesbury qui anticipe le statut ontologiquement fort de l'oeuvre d'art (tel qu'il sera thématisé par Baumgarten) et l'allie à une critique du goût. Cet auteur peut être considéré comme une forme d'exception qui confirme la règle puisque sa métaphysique de l'Art laisse une place prépondérante à une critique du goût. Mais le cumul de ces deux caractéristiques opposées un peu schématiquement pour les besoins de la démonstration n'invalide pas l'hypothèse de départ qui consiste à dire que la saisie philosophique de la question du goût et l'invention conjointe de l'esthétique au 18e siècle sont deux tentatives de trouver une issue au problème du dualisme des substances.Cette recherche doit être prise comme une forme de propédeutique à la fois absolument nécessaire et parfaitement insuffisante. Après Baumgarten et le siècle du goût philosophique, les propositions de dépassement des apories constitutives d'une tradition qui pense l'art à partir de couples d'oppositions métaphysiques tels qu'âme et corps, forme et matière, ainsi que leurs traductions dans les arts visuels (dessin et couleur ou encore figuration et abstraction), n'ont pas manqué. Il aurait fallu in fine s'effacer pour laisser la place aux plasticiens eux-mêmes, mais aussi aux poètes, non plus dans l'horizon de Y ut pictura, mais lorsqu'ils expriment, sans verser dans l'analyse conceptuelle, leurs rencontres avec telle ou telle oeuvre (je pense à Baudelaire lorsqu'il évoque Constantin Guys, à Charles Ferdinand Ramuz lorsqu'il rend hommage à Cézanne ou encore à Pascal Quignard lorsqu'il raconte les fresques de la maison des Dioscures à Pompéi, pour ne citer que trois noms qui affleurent immédiatement à ma mémoire tant leur souvenir est vivace et leur exemple un modèle). Et puis il s'agit, malgré tout, de ne pas renoncer pour autant au discours esthétique, c'est- à-dire à la philosophie, mais de réinterroger les catégories dont nous sommes les légataires et de penser avec et au-delà des limites qu'elles nous assignent. Mais cela ferait l'objet d'un autre ouvrage.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A criminal investigation requires to search and to interpret vestiges of a criminal act that happened in a past time. The forensic investigator arises in this context as a critical reader of the investigation scene, in search of physical traces that should enable her to tell a story of the offence/crime which allegedly occurred. The challenge of any investigator is to detect and recognise relevant physical traces in order to provide forensic clues for investigation and intelligence purposes. Inspired by this obser- vation, the current research focuses on the following questions : What is a relevant physical trace? And, how does the forensic investigator know she is facing one ? The interest of such questions is to provide a definition of a dimension often used in forensic science but never studied in its implications and operations. This doctoral research investigates scientific paths that are not often explored in forensic science, by using semiotic and sociological tools combined with statistical data analysis. The results are shown following a semiotic path, strongly influenced by Peir- ce's studies, and a second track, called empirical, where investigations data were analysed and forensic investigators interviewed about their work practices in the field. By the semiotic track, a macroscopic view is given of a signification process running from the discove- red physical trace at the scene to what is evaluated as being relevant for the investigator. The physical trace is perceived in the form of several signs, whose meaning is culturally codified. The reasoning should consist of three main steps : 1- What kind of source does the discovered physical trace refer to ? 2- What cause/activity is at the origin of this source in the specific context of the case ? 3- What story can be told from these observations ? The stage 3 requires to reason in creating hypotheses that should explain the presence of the discovered trace coming from an activity ; the specific activity that is related to the investigated case. To validate this assumption, it would depend on their ability to respond to a rule of relevancy. The last step is the symbolisation of the relevancy. The rule would consist of two points : the recognition of the factual/circumstantial relevancy (Is the link between the trace and the case recognised with the formulated hypothesis ? ) and appropriate relevancy (What investment is required to collect and analyse the discovered trace considering the expected outcome at the investigation/intelligence level?). This process of meaning is based on observations and a conjectural reasoning subject to many influences. In this study, relevancy in forensic science is presented as a conventional dimension that is symbolised and conditioned by the context, the forensic investigator's practice and her workplace environment (culture of the place). In short, the current research states relevancy results of the interactions between parameters from situational, structural (or organisational) and individual orders. The detection, collection and analysis of relevant physical traces at scenes depends on the knowledge and culture mastered by the forensic investigator. In the study of the relation relevant trace-forensic investigator, this research introduces the KEE model as a conceptual map that illustrates three major areas of forensic knowledge and culture acquisition, involved in the research and evaluation of the relevant physical trace. Through the analysis of the investigation data and interviews, the relationship between those three parameters and the relevancy was highlighted. K, for knowing, embodies a rela- tionship to the immediate knowledge allowing to give an overview of the reality at a specific moment ; an important point since relevancy is signified in a context. E, for education, is considered through its relationship with relevancy via a culture that tends to become institutionalised ; it represents the theoretical knowledge. As for the parameter E, for experience, it exists in its relation to relevancy in the adjustments of the strategies of intervention (i.e a practical knowledge) of each practitioner having modulated her work in the light of success and setbacks case after case. The two E parameters constitute the library resources for the semiotic recognition process and the K parameter ensures the contextualisation required to set up the reasoning and to formulate explanatory hypotheses for the discovered physical traces, questioned in their relevancy. This research demonstrates that the relevancy is not absolute. It is temporal and contextual; it is a conventional and relative dimension that must be discussed. This is where the whole issue of the meaning of what is relevant to each stakeholder of the investigation process rests. By proposing a step by step approach to the meaning process from the physical trace to the forensic clue, this study aims to provide a more advanced understanding of the reasoning and its operation, in order to streng- then forensic investigators' training. This doctoral research presents a set of tools critical to both pedagogical and practical aspects for crime scene management while identifying key-influences with individual, structural and situational dimensions. - Une enquête criminelle consiste à rechercher et à faire parler les vestiges d'un acte incriminé passé. L'investigateur forensique se pose dans ce cadre comme un lecteur critique des lieux à la recherche de traces devant lui permettre de former son récit, soit l'histoire du délit/crime censé s'être produit. Le challenge de tout investigateur est de pouvoir détecter et reconnaître les traces dites pertinentes pour fournir des indices forensiques à buts d'enquête et de renseignement. Inspirée par un tel constat, la présente recherche pose au coeur de ses réflexions les questions suivantes : Qu'est-ce qu'une trace pertinente ? Et, comment fait le forensicien pour déterminer qu'il y fait face ? L'intérêt de tels questionnements se comprend dans la volonté de définir une dimension souvent utili- sée en science forensique, mais encore jamais étudiée dans ses implications et fonctionnements. Cette recherche se lance dans des voies d'étude encore peu explorées en usant d'outils sémiotiques et des pratiques d'enquêtes sociologiques combinés à des traitements statistiques de données. Les résultats sont représentés en suivant une piste sémiotique fortement influencée par les écrits de Peirce et une seconde piste dite empirique où des données d'interventions ont été analysées et des investigateurs forensiques interviewés sur leurs pratiques de travail sur le terrain. Par la piste sémiotique, une vision macroscopique du processus de signification de la trace en élément pertinent est représentée. La trace est perçue sous la forme de plusieurs signes dont la signification est codifiée culturellement. Le raisonnement se formaliserait en trois principales étapes : 1- Quel type de source évoque la trace détectée? 2- Quelle cause/activité est à l'origine de cette source dans le contexte précis du cas ? 3- Quelle histoire peut être racontée à partir de ces observations ? Cette dernière étape consiste à raisonner en créant des hypothèses devant expliquer la présence de la trace détectée suite à une activité posée comme étant en lien avec le cas investigué. Pour valider ces hypothèses, cela dépendrait de leur capacité à répondre à une règle, celle de la pertinence. Cette dernière étape consiste en la symbolisation de la pertinence. La règle se composerait de deux points : la reconnaissance de la pertinence factuelle (le lien entre la trace et le cas est-il reconnu dans l'hypothèse fournie?) et la pertinence appropriée (quel est l'investissement à fournir dans la collecte et l'exploitation de la trace pour le bénéfice attendu au niveau de l'investigation/renseignement?). Tout ce processus de signification se base sur des observations et un raisonnement conjectural soumis à de nombreuses influences. Dans cette étude, la pertinence en science forensique se formalise sous les traits d'une dimension conventionnelle, symbolisée, conditionnée par le contexte, la pratique de l'investigateur forensique et la culture du milieu ; en somme cette recherche avance que la pertinence est le fruit d'une interaction entre des paramètres d'ordre situationnel, structurel (ou organisationnel) et individuel. Garantir la détection, la collecte et l'exploitation des traces pertinentes sur les lieux dépend de la connaissance et d'une culture maîtrisées par le forensicien. Dans l'étude du rapport trace pertinente-investigateur forensique, la présente recherche pose le modèle SFE comme une carte conceptuelle illustrant trois grands axes d'acquisition de la connaissance et de la culture forensiques intervenant dans la recherche et l'évaluation de la trace pertinente. Par l'analyse des données d'in- terventions et des entretiens, le rapport entre ces trois paramètres et la pertinence a été mis en évidence. S, pour savoir, incarne un rapport à la connaissance immédiate pour se faire une représentation d'une réalité à un instant donné, un point important pour une pertinence qui se comprend dans un contexte. F, pour formation, se conçoit dans son rapport à la pertinence via cette culture qui tend à s'institutionnaliser (soit une connaissance théorique). Quant au paramètre E, pour expérience, il se comprend dans son rapport à la pertinence dans cet ajustement des stratégies d'intervention (soit une connaissance pratique) de chaque praticien ayant modulé leur travail au regard des succès et échecs enregistrés cas après cas. F et E formeraient la bibliothèque de ressources permettant le processus de reconnaissance sémiotique et S assurerait la contextualisation nécessaire pour poser le raisonnement et formuler les hypothèses explicatives pour les traces détectées et questionnées dans leur pertinence. Ce travail démontre que la pertinence n'est pas absolue. Elle est temporelle et contextuelle, c'est une dimension conventionnelle relative et interprétée qui se doit d'être discutée. C'est là que repose toute la problématique de la signification de ce qui est pertinent pour chaque participant du processus d'investigation. En proposant une lecture par étapes du processus de signification depuis la trace à l'indice, l'étude vise à offrir une compréhension plus poussée du raisonnement et de son fonctionnement pour renforcer la formation des intervenants forensiques. Cette recherche présente ainsi un ensemble d'outils critiques à portée tant pédagogiques que pratiques pour la gestion des lieux tout en identifiant des influences-clé jouées par des dimensions individuelles, structurelles et situationnelles.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La pierre et l'image. Etude monographique de l'église de Saint-Chef en Dauphiné: L'ancienne abbatiale de Saint-Chef-en-Dauphiné est située dans l'Isère, à 10 km de Bourgoin-Jallieu et à 2 km de l'ancienne voie romaine qui joignait Vienne à Aoste par le col du Petit-Saint-Bernard. L'abbaye dépendait, dès sa fondation, des archevêques de Vienne, dont la cité se trouvait à 70 km plus à l'ouest. Selon le récit de l'archevêque Adon de Vienne, écrit à la fin du IXe siècle, l'abbaye de Saint-Chef aurait été fondée au cours du VIe siècle par saint Theudère sur un territoire appartenant à sa famille, le Val Rupien. D'abord dédié à la Vierge le monastère est placé, dès l'époque carolingienne, sous le double patronage de la Vierge et du saint fondateur, dont les reliques furent déposées dans l'église. Sans doute détruite et abandonnée lors des guerres bosonides qui provoquèrent la ruine de Vienne (882), l'abbaye est restaurée quelques années plus tard par des moines venus de Champagne : en 887 les moines de Montier-en-Der, fuyant leur abbaye menacée par les invasions normandes, trouvent refuge à Saint-Chef. Afin de promouvoir la reconstruction de l'abbaye, l'archevêque Barnoin, soutenu par Louis l'Aveugle, roi de Bourgogne, lui offrent des privilèges d'exemption et plusieurs donations. Signe de la renommée et de la prospérité dont bénéficiait alors le monastère, Hugues, héritier de Louis l'Aveugle, y reçoit son éducation. Vers 925 ou 926, alors que la Champagne est à. nouveau pacifiée, les moines de Montier-en-Der regagnent leur abbaye d'origine après avoir reconstruit, selon les sources, le « petit monastère de Saint-Chef ». L'abbaye dauphinoise n'est pas pour autant abandonnée et reste vraisemblablement en contact avec les moines champenois : en 928, Hugues de Provence fait des donations importantes d l'abbaye qui est alors formellement placée sous la juridiction de l'Eglise de Vienne. En 962, le Viennois est intégré au royaume de Bourgogne puis, en 1032, au domaine impérial. Construction de l'abbaye : Après le départ des moines de Montier-en-Der, l'église dauphinoise a vraisemblablement été reconstruite par saint Thibaud, archevêque de Vienne entre 970 et l'an mil. Ayant peut-être reçu son éducation dans l'abbaye dauphinoise, il est enterré dans l'église qui, selon certaines sources, associe dès lors son patronage à celui du saint fondateur. Elevée en petit appareil irrégulier, la nef actuelle de l'église de Saint-Chef pourrait appartenir à cette phase de construction de l'église. Fils du comte Hugues de Vienne qui possédait d'importants territoires autour de Saint-Chef, Thibaud était aussi lié aux comtes de Troyes et de Champagne : ce sont ces liens qui expliquent la présence répétée de l'archevêque en Champagne et dans la région de Montier-en-Der. Or, à la même époque, l'église champenoise est reconstruite par le célèbre Adson, abbé de 968 à 992. Des ressemblances entre cette construction et celle de Saint-Chef suggèrent la réalisation, au Xe siècle, de deux églises-soeurs. L'église préromane de Montier-en-Der possédait, à. l'ouest, un massif à double étage et l'est, des tours jumelles s'élevant au-dessus des deux chapelles latérales entourant l'abside. Ce plan présente plusieurs points de comparaison avec l'église actuelle de Saint-Chef : on constate en particulier une équivalence au niveau des dimensions (largeur-longueur des nefs et le diamètre de l'abside), un choix identique pour l'emplacement du choeur et des entrées secondaires : à l'extrémité ouest du bas-côté nord et à l'extrémité orientale du bas-côté sud. Ces analogies nous aident à. restituer le plan de Saint-Chef, tel qu'il pouvait apparaître du temps de Thibaud : la partie orientale de l'église, alors élevée en petit appareil irrégulier comme la nef actuelle, était sans doute dépourvue de transept ; à l'image de l'église champenoise, des tours jumelles pouvaient toutefois s'élever au-dessus des deux chapelles orientales. Si notre hypothèse est exacte, le parti architectural adopté à Saint-Chef comme à Montier¬en-Der correspond au plan des églises monastiques réformées au Xe siècle par les abbayes de Fleury et de Gorze (dès 934). Dans ce type d'églises que l'on rencontre essentiellement dans l'ancienne Lotharingie, mais aussi dans une région proche de Saint-Chef, en Savoie, les tours orientales possédaient, à l'étage, des tribunes qui donnaient sur le choeur. La forme caractéristique de ces églises est déterminée par l'observance de coutumes liturgiques communes aux abbayes réformées. Ainsi, la règle établie par la réforme indiquait la nécessité d'espaces surélevés situés à l'est et à l'ouest de l'église : ces espaces avaient pour fonction d'accueillir les choeurs des moines dont les chants alternaient avec ceux des moines réunis au niveau inférieur, devant le sanctuaire. Par la suite, sans doute en raison de nouvelles pratiques liturgiques, la partie orientale de l'église de Saint-Chef, reconstruite en moyen appareil régulier, est augmentée d'un transept à quatre chapelles latérales. Les deux tours, si elles existaient, sont détruites pour être reconstruites aux extrémités du transept, abritant des chapelles hautes qui donnaient sur les bras du transept et le choeur. La vision latérale entre les deux tribunes est alors favorisée par l'alignement des baies des tribunes et des arcades du transept. Grâce à ce système d'ouverture, les choeurs des moines se voyaient et s'entendaient parfaitement. Ce système de tribunes orientales apparaît dans certaines églises normandes du XIe siècle ou dans d'autres églises contemporaines qui semblent s'en inspirer, telles que la cathédrale du Puy ou l'abbatiale de Saint-Sever-sur-l'Adour. L'importance croissante des chants alternés dans les offices semble avoir favorisé l'émergence d'une telle architecture. L'étude du décor sculpté, et notamment des chapiteaux ornant les différentes parties de l'édifice, permet de dater les étapes de transformation de l'abbatiale. L'aménagement des chapelles orientales semble remonter à la première moitié du XIe siècle ; l'installation des piliers soutenant le transept et les deux tours de l'édifice est datable des années 1060-1080. Par la suite, sans doute du temps de Guillaume de la Tour-du-Pin, archevêque de Vienne entre 1165 et 1170, le transept et la croisée sont surélevés et voûtés et des fenêtres viennent ajourer le mur pignon oriental. Les indices de datation tardives, rassemblés au niveau supérieur du transept, ont été utilisés par les spécialistes de l'architecture, tels Raymond Oursel et Guy Barruol, pour dater l'ensemble de l'église du XIIe siècle. Pourtant, dans d'autres études, Otto Demus, Paul Deschamp et Marcel Thiboud dataient les peintures de Saint-Chef de la seconde moitié du XIe siècle, soit un demi-siècle au moins avant la datation proposée pour l'élévation architecturale. Cette contradiction apparente se trouve désormais résolue par la mise en évidence de phases distinctes de construction et de transformations de l'édifice. Les peintures : Le décor peint de l'abbatiale est conservé dans trois chapelles du transept : dans la chapelle Saint-Theudère, à l'extrémité sud du transept, dans la chapelle Saint-Clément, à son autre extrémité, et dans la chapelle haute s'élevant au-dessus de celle-ci. Selon une dédicace peinte derrière l'autel, cette chapelle est dédiée au Christ, aux archanges et à saint Georges martyr. L'analyse stylistique permet de dater les peintures du troisième ou du dernier quart du XIe siècle : leur réalisation semble donc succéder immédiatement à l'élévation du transept et des deux tours que l'on situe, on l'a vu, dans les années 1060-1080. Au cours de cette étude, on a aussi relevé la parenté des peintures avec des oeuvres normandes et espagnoles : ces ressemblances s'affirment par certaines caractéristiques de style, mais aussi par le traitement de l'espace. Par exemple, l'alignement des anges sur la voûte, ou des élus sur le mur ouest de la chapelle haute de Saint-Chef, rappellent certains Beatus du XIe siècle, tels que celui de Saint-Sever antérieur à 1072. Dans la chapelle haute, la hiérarchie céleste est distribuée par catégories autour du Christ, représenté au centre de la voûte ; cette disposition se retrouve à Saint-Michel d'Aiguilhe au Xe siècle, ainsi que dans le premier quart du XIIe siècle à Maderuelo en Catalogne et à Fenouilla en Roussillon. D'autres rapprochements avec des oeuvres ottoniennes et carolingiennes ont aussi été observés, ainsi qu'avec certaines enluminures d'Ingelard, moine à Saint-Germain des Prés entre 1030 et 1060. L'iconographie: Le sens de l'image avait donné lieu à quelques études ponctuelles. Cette thèse a permis, d'une part, la mise en évidence d'un unique programme iconographique auquel participent les peintures des trois chapelles de l'abbatiale et, d'autre part, la découverte des liens entre le choix iconographique de Saint-Chef et certaines sources littéraires. Ces rapports ont par exemple été relevés pour la figure de l'ange conduisant saint Jean à la Jérusalem céleste, sur le voûtain ouest de la chapelle haute. La figure très soignée de l'ange, portant les mêmes vêtements que le Christ peint au centre de la voûte, présente sur son auréole quelques traces sombres qui devaient à l'origine dessiner une croix : ce détail fait de l'ange une figure du Christ, figure qui apparaît dans certaines exégèses apocalyptiques telles que le Commentaire d'Ambroise Autpert au Ville siècle, celui d'Haymon d'Auxerre au IXe siècle ou, au début du XIIe siècle, de Rupert de Deutz. Pour Ambroise Autpert, l'ange guidant saint Jean est une image du Christ amenant l'Eglise terrestre à la Jérusalem céleste, à laquelle elle sera unie à la fin des temps. Les deux figures symboliquement unies par le geste du Christ empoignant la main de saint Jean est une image du corps mystique de Jésus, le corps étant l'Eglise et la tête, le Christ qui enseigne aux fidèles. L'iconographie des peintures de la chapelle haute est centrée autour de l'oeuvre de Rédemption et des moyens pour gagner le salut, la Jérusalem céleste étant le lieu de destination pour les élus. Au centre de la voûte, le Christ présente ses deux bras écartés, en signe d'accueil. Sur le livre ouvert qu'il tient entre les genoux, les mots pax vobis - ego sum renvoient aux paroles prononcées lors de son apparition aux disciples, après sa Résurrection et au terme de son oeuvre de Rédemption. A ses pieds, sur le voûtain oriental, la Vierge en orante, première médiatrice auprès de son Fils, intercède en faveur des humains. Grâce au sacrifice du Christ et à travers la médiation de la Vierge, les hommes peuvent accéder à la Jérusalem céleste : les élus sont ici représentés sur le dernier registre du mur ouest, directement sous la Jérusalem ; un cadre plus sombre y indique symboliquement l'accès à la cité céleste. A l'autre extrémité du voûtain, Adam et Eve sont figurés deux fois autour de l'arbre de la connaissance : chassés du paradis, ils s'éloignent de la cité ; mais une fois accomplie l'oeuvre de Rédemption, ils peuvent à nouveau s'acheminer vers elle. Les peintures de la chapelle inférieure participent elles aussi au projet iconographique de la Rédemption. Sur la voûte de la chapelle, les quatre fleuves paradisiaques entouraient à l'origine une colombe. Selon l'exégèse médiévale, ces fleuves représentent les quatre temps de l'histoire, les vertus ou les quatre évangiles, diffusés aux quatre coins de la terre. Selon une tradition littéraire et iconographique d'origine paléochrétienne, ce sont aussi les eaux paradisiaques qui viennent alimenter les fonts baptismaux : l'association de la colombe, figure du Saint-Esprit et des fleuves du paradis suggère la présence, au centre de la chapelle, des fonts baptismaux. L'image de la colombe se trouve, on l'a vu, dans le prolongement vertical du Christ ressuscité, représenté au centre de la voûte supérieure. Or, selon une tradition qui remonte à Philon et Ambroise de Milan, la source des quatre fleuves, de la Parole divine diffusée par les quatre Evangiles, c'est le Christ. Dans son traité sur le Saint-Esprit, l'évêque de Milan place à la source de l'Esprit saint l'enseignement du Verbe fait homme. Il ajoute que lorsqu'il s'était fait homme, le Saint-Esprit planait au-dessus de lui ; mais depuis la transfiguration de son humanité et sa Résurrection, le Fils de Dieu se tient au-dessus des hommes, à la source du Saint-Esprit : c'est la même logique verticale qui est traduite dans les peintures de Saint-Chef, le Christ ressuscité étant situé au-dessus du Saint-Esprit et des eaux paradisiaques, dans la chapelle haute. Si les grâces divines se diffusent de la source christique aux hommes selon un mouvement descendant, l'image suggère aussi la remontée vers Dieu : en plongeant dans les eaux du baptême, le fidèle initie un parcours qui le ramènera à la source, auprès du Christ. Or, cet ascension ne peut se faire qu'à travers la médiation de l'Eglise : dans la chapelle Saint-Clément, autour de la fenêtre nord, saint Pierre et Paul, princes de l'Eglise, reçoivent la Loi du Christ. Dans la chapelle supérieure, ici aussi autour de la fenêtre septentrionale, deux personnifications déversaient les eaux, sans doute contenues dans un vase, au-dessus d'un prêtre et d'un évêque peints dans les embrasures de la fenêtre : c'est ce dont témoigne une aquarelle du XIXe siècle. Ainsi baignés par l'eau vive de la doctrine, des vertus et des grâces issue de la source divine, les représentants de l'Eglise peuvent eux aussi devenir sources d'enseignement pour les hommes. Ils apparaissent, en tant que transmetteurs de la Parole divine, comme les médiateurs indispensables entre les fidèles et le Christ. C'est par les sacrements et par leur enseignement que les âmes peuvent remonter vers la source divine et jouir de la béatitude. Si l'espace nord est connoté de manière très positive puisqu'il est le lieu de la représentation théophanique et de la Rédemption, les peintures de la chapelle sud renvoient à un sens plus négatif. Sur l'intrados d'arc, des monstres marins sont répartis autour d'un masque barbu aux yeux écarquillés, dont les dents serrées laissent échapper des serpents : ce motif d'origine antique pourrait représenter la source des eaux infernales, dont le « verrou » sera rompu lors du Jugement dernier, à la fin des temps. La peinture située dans la conque absidale est d'ailleurs une allusion au Jugement. On y voit le Christ entouré de deux personnifications en attitude d'intercession, dont Misericordia : elle est, avec Pax, Justifia et Veritas, une des quatre vertus présentes lors du Jugement dernier. Sur le fond de l'absidiole apparaissent des couronnes : elles seront distribuées aux justes en signe de récompense et de vie éternelle. L'allusion au Jugement et à l'enfer est la vision qui s'offre au moine lorsqu'il gagnait l'église en franchissant la porte sud du transept. S'avançant vers le choeur où il rejoignait les stalles, le moine pouvait presque aussitôt, grâce au système ingénieux d'ouvertures que nous avons mentionné plus haut, contempler les peintures situées sur le plafond de la chapelle haute, soit le Christ en attitude d'accueil, les anges et peut-être la Jérusalem céleste ; de là jaillissaient les chants des moines. De façon symbolique, ils se rapprochaient ainsi de leurs modèles, les anges. Dans ce parcours symbolique qui le conduisait de la mer maléfique, représentée dans la chapelle Saint¬Theudère, à Dieu et aux anges, les moines pouvaient compter sur les prières des intercesseurs, de la Vierge, des anges et des saints, tous représentés dans la chapelle haute. A Saint-Chef, l'espace nord peut-être assimilé, pour plusieurs aspects, aux Westwerke carolingiens ou aux galilées clunisiennes. Les massifs occidentaux étaient en effet le lieu de commémoration de l'histoire du salut : sites Westwerke étaient surtout le lieu de la liturgie pascale et abritaient les fonts baptismaux, les galilées clunisiennes étaient réservées à la liturgie des morts, les moines cherchant, par leurs prières, à gagner le salut des défunts. A l'entrée des galilées comme à Saint-Chef, l'image du Christ annonçait le face à face auquel les élus auront droit, à la fin des temps. Elevée au Xe siècle et vraisemblablement transformée dans les années 1060-1080, l'église de Saint-Chef reflète, par son évolution architecturale, celle des pratiques liturgiques ; son programme iconographique, qui unit trois espaces distincts de l'église, traduit d'une manière parfois originale les préoccupations et les aspirations d'une communauté monastique du XIe siècle. On soulignera toutefois que notre compréhension des peintures est limitée par la perte du décor qui, sans doute, ornait l'abside et d'autres parties de l'église ; la disparition de la crypte du choeur nuit aussi à l'appréhension de l'organisation liturgique sur cette partie de l'édifice. Seules des fouilles archéologiques ou la découverte de nouvelles peintures pourront peut-être, à l'avenir, enrichir l'état de nos connaissances.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La maladie d'Alzheimer (MA), forme de démence la plus fréquente, est caractérisée précocement par des troubles de la mémoire, puis par une détérioration cognitive progressive, corrélée avec la progression des lésions cérébrales que sont les dépôts de protéine ß-amyloïde, notamment dans les plaques séniles, et la dégénérescence neurofibrillaire qui touche en priorité les grands neurones pyramidaux de l'hippocampe et du cortex cérébral. La perte ou les dommages synaptiques sont aussi prépondérants et conduisent à la mort neuronale et à la perte de réseaux fonctionnels notamment au niveau des protéines présynaptiques comme la synaptophysine et postsynaptiques comme PSD-95 (Leuba et al. 2008), ainsi que des récepteurs NMDA (NMDAR) liés à PSD-95 et jouant un rôle prédominant dans le fonctionnement synaptique. Notre étude s'est portée une des régions du cortex frontal correspondant à l'aire de Brodmann 10, encore peu étudiée dans la littérature scientifique, qui peut être touchée de manière plus ou moins importante dans la MA, entraînant des troubles de l'humeur et du comportement ainsi que des répercussions sur les fonctions exécutives. L'étude a pour but d'identifier et de quantifier les dépôts de protéine ß-amyloïde et les lésions neurofibrillaires ainsi que les changements de protéines synaptiques et de récepteurs NMDA dans cette région entre une population contrôle et AD, et de la comparer avec d'autres régions déjà partiellement étudiées dans le laboratoire, notamment l'aire 9 qui lui est adjacente et les aires cingulaires 24 et 25. L'analyse est faite de manière qualitative et semi-quantitative au microscope optique sur des coupes colorées avec des méthodes immunohistochimiques. De possibles corrélations anatomo-cliniques sont recherchées dans les cas AD. La région FC10 est touchée par la MA avec une présence de plaques séniles et de dégénérescences neurofibrillaires plus marquées chez les cas atteints de la MA ce qui n'est pas le cas des protéines synaptiques. Le comportement des deux marqueurs pathologiques dans FC10 est comparable aux autres régions cérébrales étudiées notamment à la région adjacente, FC9, contrairement aux marqueurs synaptiques qui selon la région ont un comportement plus variable. L'effet de l'âge dans l'évolution de la physiopathologie de la MA pour les marqueurs pathologiques a été mis en évidence dans la région FC10. Les régions EC et FC9 n'ont pas montré de microhémorragie synonyme d'une possible contribution vasculaire. L'étude de cette région a permis de mettre en évidence l'implication de FC10 dans la MA. Elle montre des points communs avec les autres régions cérébrales notamment vis-à-vis des plaques séniles et des DNF.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L'objectif principal de cette thèse consiste à mettre en évidence la persistance du capitalisme familial en Suisse au cours du 20e siècle, et sa résistance aux capitalismes managérial et financier qui sont censés lui avoir succédé. Pour ce faire, nous avons retenu vingt-deux grandes entreprises du secteur des machines, de l'électrotechnique et de la métallurgie - principale branche de l'industrie suisse pour la période considérée -, pour lesquelles ont été recensés les membres des conseils d'administration et les principaux dirigeants exécutifs pour cinq dates- repère couvrant le siècle (1910, 1937, 1957, 1980 et 2000). Cette thèse s'inscrit dans une démarche pluridisciplinaire qui relève à la fois de l'histoire d'entreprise et de la sociologie des dirigeants, et fait appel à différentes méthodes telles que l'analyse de réseau et l'analyse prosopographique. Elle s'articule autour de trois axes de recherche principaux : le premier vise à mettre en évidence l'évolution des modes de gouvernance dans notre groupe d'entreprises, le second investit la question de la coordination patronale et le troisième a pour but de dresser un portrait collectif des élites à la tête de nos vingt-deux firmes. Nos résultats montrent que durant la majeure partie du siècle, la plupart de nos entreprises sont contrôlées par des familles et fonctionnent sur un mode de coordination hors marché qui repose notamment sur un réseau dense de liens interfirmes, le profil des dirigeants restant dans l'ensemble stable. Si la fin du siècle est marquée par plusieurs changements qui confirment l'avènement d'un capitalisme dit financier ou actionnarial et la mise en place de pratiques plus concurrentielles parmi les firmes et les élites industrielles, le maintien du contrôle familial dans plusieurs entreprises et la persistance de certains anciens mécanismes de coopération nous incitent cependant à nuancer ce constat. - The main objective of this research is to highlight the persistence of family capitalism in Switzerland during the 20th century and its resistance to managerial and financial capitalisms that succeeded. For this purpose, we focus on twenty- two big companies of the machine, electrotechnical and metallurgy sector - the main branch of the Swiss industry for the considered period - whose boards of directors and executive managers have been identified for five benchmarks across the century (1910, 1937, 1957, 1980 and 2000). This thesis relates to business history and elites sociology, and uses different methods such as network analysis and prosopography. It is articulated around three main parts. The aim of the first one is to identify the evolution of corporate governance in our twenty-two enterprises, the second part concentrates on interfirms coordination and the objective of the last one is to highlight the profile of the corporate elite leading our firms. Our results show that during the main part of the century, most of the companies were controlled by families and were characterized by non-market mechanisms of coordination such as interlocking directorates ; moreover, the profile of the corporate elite remained very stable. Although some major changes that took place by the end of the century confirmed a transition towards financial capitalism and more competitive interaction among firms and the corporate elite, the persistence of family control in several companies and the maintaining of some former mechanisms of coordination allow us to put this evolution into perspective.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

D'une certaine manière, la rhétorique est un art cognitif. L'art de discourir en situation concrète dans l'espoir de faire adhérer l'auditoire à une thèse suppose une forte aptitude cognitive: celle de se représenter la façon dont l'auditoire lui-même se représente une situation rhétorique. Or, à partir du moment où agir sur les représentations d'autrui est facilité par des techniques rhétoriques ou sophistiques, la question de la tromperie verbale s'est immiscée dans des affaires de régulation sociale et, avec elle, des enjeux tant de crédibilité que de crédulité. Dans le cadre démocratique rendant encore plus aiguë une forme de dépendance à l'information d'autrui, la nécessité de croire tout comme la possibilité d'être leurré mettent à l'épreuve tant le fonctionnement social de la Cité que l'évaluation des informations et de leurs auteurs. Le but des contributions de cet ouvrage n'est pas de dénoncer les effets de certains schèmes argumentatifs que d'aucuns jugeraient fallacieux ni d'ajouter une couche nouvelle aux critiques des sophismes, mais d'étudier leur fonctionnement et leurs effets cognitifs hic et nunc. Quels sont les mécanismes langagiers et cognitifs qui expliquent la «performance» des arguments réputés fallacieux? Comment fonctionnent les stratégies rhétoriques à l'intersection entre cognition, sciences du langage et société? Cet ouvrage, issu du colloque Communication et Cognition: manipulation, persuasion et biais dans le langage, tenu à Neuchâtel du 26 au 28 janvier 2011, propose plusieurs propositions originales ou hypothèses stimulantes dans l'espoir qu'elles inspireront tant les chercheurs spécialisés en rhétorique et sciences du langage à aller voir du côté de la psychologie cognitive que les spécialistes de ce domaine à mettre en évidence la rhétoricité de leurs recherches. English version: In a way, rhetoric is a cognitive art. The art of speaking in concrete situations in the hope of gaining the audience's consent on a given issue requires the operation of a cognitive ability: that of being able to represent the way an audience represents itself a rhetorical situation. Nonetheless, once we consider that rhetorical or sophistic techniques influence people's representations, verbal deception becomes a matter of social regulation, together with issues of credibility and credulity. In a democratic context fostering a form of dependence towards other people's information, the necessity of believing everything and the possibility of being duped are challenges for both the social management of the City and the evaluation of information and of its sources. The contribution of the chapters of this volume is neither to be found in the condemnation of the fallacious effects of specific argument schemes nor in the addition of yet another layer to fallacy criticism, but in the study of how fallacies work, hic et nunc. What are the linguistic and cognitive mechanisms at play behind the "performance" of fallacious arguments? How do rhetorical strategies work at the interface of cognition, language science and society? This book gathers papers that were presented during the international conference Communication & Cognition: manipulation, persuasion and biases in language, held at the University of Neuchâtel in January 2011. A number of original proposals and stimulating hypotheses emerge from them: we hope that these will inspire researchers in the language sciences who specialise in rhetoric to take on board cognitive scientific insights but also researchers in cognitive science to engage with the rhetoricity of their own research.