494 resultados para Intensité structurelle
Resumo:
Résumé du travail de thèse Introduction : Les différentes cellules endothéliales du lit vasculaire ont de nombreuses similitudes fonctionnelles et morphologiques. Cependant, elles présentent également une importante hétérogénéité structurelle et fonctionnelle qui peut avoir des implications notamment dans l'angiogenèse et le développement des maladies cardio-vasculaires. Peu d'études ont été publiées au sujet de l'expression et de la distribution des marqueurs endothéliaux dans les tissus humain normaux. Objectif : Nous avons étudié l'expression immunohistochimique des marqueurs endothéliaux CD31, CD34, vWF et Fli-1 dans les vaisseaux périphériques du rein, du poumon, de la rate, du foie, du cour et des gros vaisseaux ; incluant l'aorte, la veine cave inférieure, l'artère rénale ainsi que les artères et veines pulmonaires et fémorales. Matériel et méthodes : Les échantillons tissulaires ont été obtenus à partir de matériel d'autopsie et de biopsies. Le matériel a été fixé en formaline et inclus en paraffine. Les coupes de paraffine ont été colorées immunohistochimiquement avec CD31, CD34 et vWF. Les biopsies ont également été colorées immunohistochimiquement avec Fli-1, D2-40 et Lyve-1. Résultats : L'expression immunohistochimique de ces marqueurs est hétérogène dans les différents organes étudiés. Dans le rein, l'endothélium fenêtré des glomérules exprime fortement CD31 et CD34. Par contre, il n'exprime pas ou alors de manière faible et focale vWF. Dans le poumon, les capillaires alvéolaires expriment fortement CD31 et CD34 mais sont habituellement négatifs pour le vWF. L'expression de vWF augmente graduellement avec le calibre vasculaire dans le poumon. Les sinusoïdes de la rate expriment CD31 de manière diffuse mais ils n'expriment pas CD34. Les sinusoïdes du foie expriment CD31 de part et d'autre des lobules. Par contre, CD34 est exprimé seulement dans la région périportale. L'expression de Fli-1 dans les cellules endothéliales est ubiquitaire et ne varie pas suivant le type de vaisseau ou d'organe. Fli-1 est également exprimé dans d'autres types de cellules, essentiellement des lymphocytes. D2-40 est exprimé seulement dans l'endothélium des vaisseaux lymphatiques. L'expression de Lyve-1 dans ce matériel de routine était inconstante et non reproductible. Conclusion : Ces résultats indiquent que l'expression des marqueurs endothéliaux CD31, CD34 et vWF est hétérogène dans le lit vasculaire et qu'elle varie entre différents vaisseaux et différents compartiments anatomiques du même organe. D2-40 ne marque que les cellules endothéliales lymphatiques.
Resumo:
Objectifs: comprendre que les connections cérébrales forment un réseau structurel complexe de grande taille, comprendre que l'organisation architecturale de ce réseau définit les propriétés fonctionnelles de ce dernier, comprendre qu'il y a une interdépendance intime entre la structure et la fonction , le métabolisme, comprendre que le réseau change au cours du développement ou lors de lésions ou maladie cérébrale. Messages à retenir: le cerveau est un réseau neuronal complexe qui peut être mesurer avec l'IRM, la connectivité cérébrale est inhomogène, la connectivité structurelle détermine largement la fonction cérébrale, les réseau neuronaux se modifient au cours de la vie et dans certaines maladies cérébrales. Résumé: La "connectomique" est un domaine émergeant et prometteur des neurosciences qui utilise l'IRM de diffusion en combinaison avec des traitements algorithmiques avancés afin de mesurer les trajectoires de faisceaux de fibres et la connectivité cérébrale permettant d'étudier l'organisation de la structure du réseau neuronal cérébral dans son ensemble. Lors de ce cours nous reverrons les méthodes rendant cette cartographie possible et exposerons les techniques d'analyse utilisées pour obtenir de nouvelles informations sur l'architecture cérébrale. Nous reverrons également un certains nombre d'exemple d'applications où la connectomique offre une nouvelle manière d'analyser et de comprendre le fonctionnement du cerveau normal ou malade.
Resumo:
Introduction : Depuis 2005, le « Test FIFA » est utilisé chez les arbitres de football, comme critère de sélection pour monter dans les échelons de l'arbitrage et chaque arbitre base son entraînement dans cet objectif. Ce test a été développé grâce aux nombreux travaux scientifiques, ayant utilisé l'analyse vidéo, afin de quantifier les activités de match des arbitres et analyser leur performance en cours de match. Objectifs : Le but de ce travail a été d'évaluer la performance de l'arbitre, lors d'un match de football, au moyen d'un accéléromètre en raison de sa facilité d'utilisation et en particulier d'évaluer si au cours du match, il existe une éventuelle diminution de la capacité de performance engendrée par la fatigue. Enfin, à la lumière des résultats, nous avons pu discuter du bien fondé du «test par intervalle proposé par la FIFA» comme moyen d'estimation de la capacité physique d'un arbitre. Méthode : Il s'agit d'une étude prospective basée sur une analyse descriptive. Les données ont été récoltées dans des stades de football suisses ≥1ère Ligue, du 01.12.2011 au 01.12.2012. Le groupe étudié était composé de 5 arbitres de football de sexe masculin, dont deux officiant en 1ère Ligue et faisant partie des talents de l'Association Cantonale Vaudoise de Football (ACVF) et trois en Super League et Challenge League. Les 5 arbitres ont été équipés d'un iPhone 3GS®, muni d'une application, capable d'enregistrer les déplacements sur le terrain (arrêt, marche et course). Le traitement des données a été effectué par un programme Matlab®, élaboré par le Laboratoire des Mesures d'Analyse du Mouvement (LMAM) de l'EPFL, tout comme l'application en question. Pour ce travail ont été considérées les phases et les fréquences d'arrêt, de marche et de course tout au long de l'évolution de la partie. Résultats : Durant les 90 minutes du match, la répartition se fait de la manière suivante : 13,74% du temps total où l'accéléromètre ne mesure aucune activité, 33,70% concernent une activité de course alors que le reste, 52,48% est de la marche. Avec l'avancement dans le match, il est constaté une augmentation des phases d'arrêt et une diminution du temps de course. Une intensité d'effort plus importante est observée lors des 15 premières minutes du match (environ 41,7% de course), alors qu'en fin de la partie, il y a une alternance de marche et de course avec des efforts de plus en plus brefs. La détermination de la médiane de durée des différents efforts a montré qu'un épisode de marche ou de course étaient de 5-6 secondes. De plus, les épisodes de marche ou de course étaient rarement >20 secondes. Discussion : Les résultats montrent que l'accéléromètre est un système de mesure facile d'utilisation, permettant un gain de temps dans l'analyse des données pour évaluer la performance sportive. Les principaux résultats de cette étude, ont mis en évidence une diminution de l'intensité des activités physiques de l'arbitre avec l'avancement du match, résultant soit de sa propre fatigue, soit de celle des joueurs dictant le rythme du jeu. Cette diminution se traduit par des déplacements de plus en plus brefs au fil du temps. La mesure de médiane du temps de course et de marche (5-6 sec) correspond à une activité aérobie pour la marche et anaérobie alactique pour la course. Par conséquent, le « test par intervalle » de la FIFA actuel ne nous semble pas adéquat en raison de sa filière énergétique de type anaérobique lactique. Conclusion : Cette étude pilote apporte un nouveau type d'instrumentation efficace et simple, jamais employé auparavant dans l'analyse des activités de match des arbitres de football. Il permet d'explorer des mouvements avec précision au fil du match et apporte un nouvel aspect sur la quantification de performance des arbitres non exploré jusqu'ici. Après analyse de l'ensemble des paramètres, il semble que le test FIFA ne soit pas adapté à la performance exigée par l'arbitrage.
Resumo:
Face aux questions urgentes de marginalisation des villes méditerranéennes, nous nous interrogeons sur les modalités de l'intégration économique des territoires méditerranéens par les firmes multinationales, et sur la manière d'envisager leurs développements dans un contexte économique néo-libéral où le développement passe avant tout par l'investissement privé. Les firmes multinationales, grâce à leur organisation en réseaux à l'échelle de la planète, participent à ces processus d'intégration et se voient confier un rôle fondamental dans les politiques publiques d'intégration des territoires. Par une approche multi-échelles et multi-niveaux, nous avons observé l'intégration des villes par les réseaux de firmes multinationales en approfondissant en particulier les villes des pays du sud de la Méditerranée par les firmes multinationales du secteur agroalimentaire. Au niveau micro, nous avons analysé les stratégies des firmes multinationales selon une approche structurelle de leurs réseaux d'organisation financière, qui combine une approche élaborée par les gestionnaires selon le degré d'intégration internationale des activités au sein des groupes, avec l'analyse quantitative des réseaux sociaux. Au niveau macro, afin d'étudier le réseau de villes, nous avons effectué une agrégation de ces stratégies micro d'entreprises par agglomérations urbaines représentant des villes comparables. Nous avons confronté ces résultats à des études monographiques afin de souligner les processus locaux d'intégration des territoires par les firmes multinationales. D'après nos résultats, nous pouvons suggérer que les processus de métropolisation du système de villes sont le résultat à la fois d'attractivités internationales multiples, et de logiques sectorielles cumulées, conformément à la théorie des économies d'agglomération. La forte différenciation des modes de gouvernance des réseaux d'entreprises au niveau micro et la faible différenciation des réseaux de villes par ces mêmes firmes au niveau macro, nous a donc conduit à penser que les différences de mode de gouvernance observées au niveau micro des firmes multinationales vont se traduire par une différenciation au niveau de la mise en réseau des firmes à l'échelle intra-urbaine. Cette mise en réseau à l'échelle intra-urbaine est déterminante puisque nous avons observé que la connectivité intra-urbaine est fortement corrélée au pouvoir relatif de la ville sur les autres villes. Ceci peut s'expliquer par le fait que les villes qui ont des fonctions de siège ont besoin de s'appuyer sur un ensemble de services dans la ville, donc de fortes économies d'urbanisation. Nous avons observé que les villes méditerranéennes appartiennent à la région européenne mais la dissysmétrie des relations entre le nord et le sud témoignent de processus de périphérisation liées aux structures internationales des accords bilatéraux entre l'union européenne et les pays du sud de la Méditerranée. Cependant, nous avons pu vérifier au niveau local que la firme participe à des processus de développement plus larges à l'échelle du pays en participant à la restructuration des filières locales. Parce qu'elles appliquent le même modèle d'implantation où qu'elles soient, ce sont les acteurs institutionnels qui jouent un rôle déterminant dans les processus de développement en protégeant les filières locales, en réglementant les marchés nationaux, et en soutenant au niveau local les acteurs de la filière. Ces observations appliquées au cadre euro-méditerranéen suggèrent qu'il faudrait soutenir davantage les structures internationales pour accroître la compétitivité des territoires méditerranéens, et ce à tous les niveaux : renforcer les partenariats régionaux sud-sud pour l'émergence d'une région sud-méditerranéenne plus intégrée, et soutenir et réglementer davantage les filières locales avec une attention particulière accordée aux processus intra-urbains.
Resumo:
A mobile ad hoc network (MANET) is a decentralized and infrastructure-less network. This thesis aims to provide support at the system-level for developers of applications or protocols in such networks. To do this, we propose contributions in both the algorithmic realm and in the practical realm. In the algorithmic realm, we contribute to the field by proposing different context-aware broadcast and multicast algorithms in MANETs, namely six-shot broadcast, six-shot multicast, PLAN-B and ageneric algorithmic approach to optimize the power consumption of existing algorithms. For each algorithm we propose, we compare it to existing algorithms that are either probabilistic or context-aware, and then we evaluate their performance based on simulations. We demonstrate that in some cases, context-aware information, such as location or signal-strength, can improve the effciency. In the practical realm, we propose a testbed framework, namely ManetLab, to implement and to deploy MANET-specific protocols, and to evaluate their performance. This testbed framework aims to increase the accuracy of performance evaluation compared to simulations, while keeping the ease of use offered by the simulators to reproduce a performance evaluation. By evaluating the performance of different probabilistic algorithms with ManetLab, we observe that both simulations and testbeds should be used in a complementary way. In addition to the above original contributions, we also provide two surveys about system-level support for ad hoc communications in order to establish a state of the art. The first is about existing broadcast algorithms and the second is about existing middleware solutions and the way they deal with privacy and especially with location privacy. - Un réseau mobile ad hoc (MANET) est un réseau avec une architecture décentralisée et sans infrastructure. Cette thèse vise à fournir un support adéquat, au niveau système, aux développeurs d'applications ou de protocoles dans de tels réseaux. Dans ce but, nous proposons des contributions à la fois dans le domaine de l'algorithmique et dans celui de la pratique. Nous contribuons au domaine algorithmique en proposant différents algorithmes de diffusion dans les MANETs, algorithmes qui sont sensibles au contexte, à savoir six-shot broadcast,six-shot multicast, PLAN-B ainsi qu'une approche générique permettant d'optimiser la consommation d'énergie de ces algorithmes. Pour chaque algorithme que nous proposons, nous le comparons à des algorithmes existants qui sont soit probabilistes, soit sensibles au contexte, puis nous évaluons leurs performances sur la base de simulations. Nous montrons que, dans certains cas, des informations liées au contexte, telles que la localisation ou l'intensité du signal, peuvent améliorer l'efficience de ces algorithmes. Sur le plan pratique, nous proposons une plateforme logicielle pour la création de bancs d'essai, intitulé ManetLab, permettant d'implémenter, et de déployer des protocoles spécifiques aux MANETs, de sorte à évaluer leur performance. Cet outil logiciel vise à accroître la précision desévaluations de performance comparativement à celles fournies par des simulations, tout en conservant la facilité d'utilisation offerte par les simulateurs pour reproduire uneévaluation de performance. En évaluant les performances de différents algorithmes probabilistes avec ManetLab, nous observons que simulateurs et bancs d'essai doivent être utilisés de manière complémentaire. En plus de ces contributions principales, nous fournissons également deux états de l'art au sujet du support nécessaire pour les communications ad hoc. Le premier porte sur les algorithmes de diffusion existants et le second sur les solutions de type middleware existantes et la façon dont elles traitent de la confidentialité, en particulier celle de la localisation.
Resumo:
[Introduction (extrait)] Si l'on connaît généralement les revues systématiques dans le domaine médical ou des soins, l'évaluation de l'efficacité d'une intervention technique ou structurelle en dehors de ces domaines est moins connue. Le but est cependant similaire : quelles preuves a-t-on qu'une intervention soit efficace pour améliorer la santé de la population ou d'une personne ? L'article ci-dessous présente une revue systématique en prévention et santé publique
Resumo:
La pression exercée par les activités humaines menace pratiquement tous les écosystèmes aquatiques du globe. Ainsi, sous l'effet de divers facteurs tels que la pollution, le réchauffement climatique ou encore la pêche industrielle, de nombreuses populations de poissons ont vu leurs effectifs chuter et divers changements morphologiques ont été observés. Dans cette étude, nous nous sommes intéressés à une menace particulière: la sélection induite par la pêche sur la croissance des poissons. En effet, la génétique des populations prédit que la soustraction régulière des individus les plus gros peut entraîner des modifications rapides de certains traits physiques comme la croissance individuelle. Cela a par ailleurs été observé dans de nombreuses populations marines ou lacustres, dont les populations de féras, bondelles et autres corégones des lacs suisses. Toutefois, malgré un nombre croissant d'études décrivant ce phénomène, peu de plans de gestion en tiennent compte, car l'importance des effets génétiques liés à la pêche est le plus souvent négligée par rapport à l'impact des changements environnementaux. Le but premier de cette étude a donc été de quantifier l'importance des facteurs génétiques et environnementaux. Dans le premier chapitre, nous avons étudié la population de palée du lac de Joux (Coregonus palaea). Nous avons déterminé les différentiels de sélection dus à la pêche, c'est-à-dire l'intensité de la sélection sur le taux de croissance, ainsi que les changements nets de croissance au cours du temps. Nous avons observé une baisse marquée de croissance et un différentiel de sélection important indiquant qu'au moins 30% de la diminution de croissance observée était due à la pression de sélection induite par la pêche. Dans le deuxième chapitre, nous avons effectué les mêmes analyses sur deux espèces proches du lac de Brienz (C. albellus et C. fatioi) et avons observé des effets similaires dont l'intensité était spécifique à chaque espèce. Dans le troisième chapitre, nous avons analysé deux autres espèces : C. palaea et C. confusus du lac de Bienne, et avons constaté que le lien entre la pression de sélection et la diminution de croissance était influencé par des facteurs environnementaux. Finalement, dans le dernier chapitre, nous avons étudié les effets potentiels de différentes modifications de la taille des mailles des filets utilisés pour la pêche à l'aide de modèles mathématiques. Nous concluons que la pêche a un effet génétique non négligeable (et donc peu réversible) sur la croissance individuelle dans les populations observée, que cet effet est lié à la compétition pour la nourriture et à la qualité de l'environnement, et que certaines modifications simples de la taille des mailles des filets de pêche pourraient nettement diminuer l'effet de sélection et ainsi ralentir, voir même renverser la diminution de croissance observée.
Resumo:
La présence de fluide météorique synchrone à l'activité du détachement (Farmin, 2003 ; Mulch et al., 2007 ; Gébelin et al., 2011), implique que les zones de cisaillement sont des systèmes ouverts avec des cellules de convections à l'échelle crustale et un intense gradient géothermique au sein du détachement (Morrison et Anderson, 1998, Gottardi et al., 2011). De plus, les réactions métamorphiques liées à des infiltrations fluides dans les zones de cisaillement extensionnel peuvent influencer les paramètres rhéologiques du système (White and Knipe, 1978), et impliquer la localisation de la déformation dans la croûte. Dans ce manuscrit, deux zones de cisaillement infiltrées par des fluides météoriques sont étudiées, l'une étant largement quartzitique, et l'autre de nature granitique ; les relations entre déformation, fluides, et roches s'appuient sur des approches structurales, microstructurales, chimiques et isotopiques. L'étude du détachement du Columbia river (WA, USA) met en évidence que la déformation mylonitique se développe en un million d'années. La phase de cisaillement principal s'effectue à 365± 30°C d'après les compositions isotopiques en oxygène du quartz et de la muscovite. Ces minéraux atteignent l'équilibre isotopique lors de leur recristallisation dynamique contemporaine à la déformation. La zone de cisaillement enregistre une baisse de température, remplaçant le mécanisme de glissement par dislocation par celui de dissolution- précipitation dans les derniers stades de l'activité du détachement. La dynamique de circulation fluide bascule d'une circulation pervasive à chenalisée, ce qui engendre localement la rupture des équilibres d'échange isotopiques. La zone de cisaillement de Bitterroot (MT, USA) présente une zone mylonitique de 600m d'épaisseur, progressant des protomylonites aux ultramylonites. L'intensité de la localisation de la déformation se reflète directement sur l'hydratation des feldspaths, réaction métamorphique majeure dite de « rock softening ». Une étude sur roche totale indique des transferts de masse latéraux au sein des mylonites, et d'importantes pertes de volume dans les ultramylonites. La composition isotopique en hydrogène des phyllosilicates met en évidence la présence (1) d'une source magmatique/métamorphique originelle, caractérisée par les granodiorites ayant conservé leur foliation magmatique, jusqu'aux protomylonites, et (2) une source météorique qui tamponne les valeurs des phyllosilicates des fabriques mylonitiques jusqu'aux veines de quartz non-déformées. Les compositions isotopiques en oxygène des minéraux illustrent le tamponnement de la composition du fluide météorique par l'encaissant. Ce phénomène cesse lors du processus de chloritisation de la biotite, puisque les valeurs des chlorites sont extrêmement négatives (-10 per mil). La thermométrie isotopique indique une température d'équilibre isotopique de la granodiorite entre 600-500°C, entre 500-300°C dans les mylonites, et entre 300 et 200°C dans les fabriques cassantes (cataclasites et veines de quartz). Basé sur les résultats issus de ce travail, nous proposons un modèle général d'interactions fluide-roches-déformation dans les zones de détachements infiltrées par des fluides météoriques. Les zones de détachements évoluent rapidement (en quelques millions d'années) au travers de la transition fragile-ductile ; celle-ci étant partiellement contrôlée par l'effet thermique des circulations de fluide météoriques. Les systèmes de détachements sont des lieux où la déformation et les circulations fluides sont couplées ; évoluant rapidement vers une localisation de la déformation, et de ce fait, une exhumation efficace. - The presence of meteoric fluids synchronous with the activity of extensional detachment zones (Famin, 2004; Mulch et al., 2007; Gébelin et al., 2011) implies that extensional systems involve fluid convection at a crustal scale, which results in high geothermal gradients within active detachment zones (Morrison and Anderson, 1998, Gottardi et al., 2011). In addition, the metamorphic reactions related to fluid infiltration in extensional shear zones can influence the rheology of the system (White and Knipe, 1978) and ultimately how strain localizes in the crust. In this thesis, two shear zones that were permeated by meteoric fluids are studied, one quartzite-dominated, and the other of granitic composition; the relations between strain, fluid, and evolving rock composition are addressed using structural, microstructural, and chemical/isotopic measurements. The study of the Columbia River detachment that bounds the Kettle core complex (Washington, USA) demonstrates that the mylonitic fabrics in the 100 m thick quartzite- dominated detachment footwall developed within one million years. The main shearing stage occurred at 365 ± 30°C when oxygen isotopes of quartz and muscovite equilibrated owing to coeval deformation and dynamic recrystallization of these minerals. The detachment shear zone records a decrease in temperature, and dislocation creep during detachment shearing gave way to dissolution-precipitation and fracturing in the later stages of detachment activity. Fluid flow switched from pervasive to channelized, leading to isotopic disequilibrium between different minerals. The Bitterroot shear zone detachment (Montana, USA) developed a 600 m thick mylonite zone, with well-developed transitions from protomylonite to ultramylonite. The localization of deformation relates directly to the intensity of feldspar hydration, a major rock- softening metamorphic reaction. Bulk-rock analyses of the mylonitic series indicate lateral mass transfer in the mylonite (no volume change), and significant volume loss in ultramylonite. The hydrogen isotope composition of phyllosilicates shows (1) the presence of an initial magmatic/metamorphic source characterized by the granodiorite in which a magmatic, and gneissic (protomylonite) foliation developed, and (2) a meteoric source that buffers the values of phyllosilicates in mylonite, ultramylonite, cataclasite, and deformed and undeformed quartz veins. The mineral oxygen isotope compositions were buffered by the host-rock compositions until chloritization of biotite started; the chlorite oxygen isotope values are negative (-10 per mil). Isotope thermometry indicates a temperature of isotopic equilibrium of the granodiorite between 600-500°C, between 500-300°C in the mylonite, and between 300 and 200°C for brittle fabrics (cataclasite and quartz veins). Results from this work suggest a general model for fluid-rock-strain feedbacks in detachment systems that are permeated by meteoric fluids. Phyllosilicates have preserved in their hydrogen isotope values evidence for the interaction between rock and meteoric fluids during mylonite development. Fluid flow generates mass transfer along the tectonic anisotropy, and mylonites do not undergo significant volume change, except locally in ultramylonite zones. Hydration of detachment shear zones attends mechanical grain size reduction and enhances strain softening and localization. Self-exhuming detachment shear zones evolve rapidly (a few million years) through the transition from ductile to brittle, which is partly controlled by the thermal effect of circulating surface fluids. Detachment systems are zones in the crust where strain and fluid flow are coupled; these systems. evolve rapidly toward strain localization and therefore efficient exhumation.
Resumo:
RESUME DE LA THESE Le but de cette thèse est d'analyser la réforme générale de l'Etat au Cameroun et au Gabon par les institutions de Bretton Woods sur une période de vingt ans (1987-2007). Pour ce faire, mon travail consiste à étudier le rôle majeur joué par les différentes mesures économiques impulsées dans les pays par le Fonds Monétaire International (FMI) et la Banque Mondiale. Il s'agit de voir si les différentes réformes d'ajustement que ces institutions ont imposé au Cameroun et au Gabon ont produit des effets positifs en vue de solution la crise économique qui s'y installait durablement et remettre ces Etats sur le sentier de la croissance et du développement. L'avènement de la crise économique qui sévissait dans les pays au milieu des années 1980 montrait que le modèle développementaliste expérimenté par ces Etats n'avait expérimenté contribué qu'à provoquer la paralysie de l'appareil de production. Les causes profondes résidaient dans l'omniprésence de l'Etat qui privilégiait une logique administrative au dépend de celle de production au point de nuire gravement aux politiques interventionnistes étatiques. A cela, s'ajoutaient d'autres facteurs endogènes et exogènes aux Etats comme la mauvaise gestion couplée à la forte corruption et au clientélisme politique, la contrebande et le dumping, l'effritement du secteur agricole dû au vieillissement des plantations et à la sous-mécanisation, l'explosion démographique, la détérioration des termes de l'échange, le chômage endémique et galopant, etc. En ayant recours aux réformes d'ajustement structurel du FMI et de la Banque Mondiale, les gouvernements camerounais et gabonais entendaient lutter contre les rigidités institutionnelles et les distorsions structurelles qui empêchaient leurs économies de répondre aux signaux du marché et d'accroître l'offre d'une part. Et, d'autre part, les réformes d'ajustement devaient permettre de renforcer la concurrence des produits sur les marchés, accroître les capacités d'adaptation des marchés de facteurs et améliorer l'efficacité et l'efficience du secteur public. Mais avant d'analyser les réformes d'ajustement dans les pays j'ai d'abord présenté dans une première partie, l'évolution sociopolitique et économique des deux pays. Cette partie donne à l'analyse une profondeur historique indispensable et rend compte de l'évolution des politiques sectorielles des Etats marquée par une phase de croissance (1960-1984), puis par une phase de décroissance ou de crise qui commence à partir de 1985. La seconde partie met en évidence les politiques d'ajustement structurelle principalement axées sur la régulation monétaire, financière et budgétaire, la réforme de la fonction publique, la réforme agricole, le désengagement de l'Etat du secteur productif national et les privatisations. Je termine cette seconde partie par un bilan contrasté que je dresse de l'impact de ces réformes dans les économies camerounaises et gabonaises. La troisième partie met en évidence les nouvelles orientations stratégiques des institutions de Bretton Woods en partant de l'agenda politique des réformes au Cameroun et au Gabon. Elle fait intervenir une batterie de réformes portant sur l'initiative Pays Pauvres Très Endettés (PPTE), les Documents de Stratégie pour la Réduction de la Pauvreté (DSRP), l'Evaluation Politique et Institutionnelle du Pays (EPIP) et la «Bonne Gouvernance». Cette thèse s'achève par une conclusion exhaustive mettant en évidence les insuffisances des modèles théoriques et conceptuels fondant l'ajustement structurel et la remise en cause des nouvelles stratégies de lutte contre la pauvreté impulsées par le FMI et la Banque Mondiale dans les pays d'une part. D'autre part, j'observe une faiblesse institutionnelle de l'Etat dans ces pays qui se résume à la mauvaise gouvernance ; à l'absence d'un cadre et des outils appropriés pour la gestion économique et stratégique du développement à long terme ; à l'impunité généralisée et à l'inefficacité des mesures de lutte contre la pauvreté ; à l'absence d'un Etat de droit et à l'autoritarisme des régimes en place.
Resumo:
Après la compression du nerf médian au niveau du tunnel carpien, la compression du nerf ulnaire au niveau du coude est le deuxième syndrome compressif le plus fréquent des nerfs périphériques. La chirurgie des nerfs périphériques consiste dans une décompression nerveuse et est caractérisée par un suivi post¬opératoire parfois très douloureux avec des douleurs qui peuvent chroniciser si insuffisamment traitées. Le traitement chirurgical de décompression nerveuse se fait traditionnellement sous anesthésie générale ou régionale. Une analgésie post-opératoire plus efficace et durable avec moindre risque de chronicisation avait justifié ce choix jusqu'à ce jour. Grâce au développement de la chirurgie ambulatoire ces dernières années, un grand nombre d'interventions chirurgicales au niveau de la main sont effectués sous anesthésie locale. Au vu d'une meilleure connaissance de cette technique d'anesthésie, son rôle dans la chirurgie des nerfs périphériques a été remis en question. Alors que plusieurs études ont démontré que l'anesthésie locale est aussi efficace que l'anesthésie générale et régionale au sujet de la chirurgie du tunnel carpien, son utilisation pour la chirurgie du nerf ulnaire reste peu connue. La raison de l'hésitation à l'utilisation de l'anesthésie locale pour le traitement du tunnel ulnaire est due au fait que dans plus de la moitié des cas, une simple décompression n'est pas suffisante et qu'il est souvent nécessaire de transposer le nerf ulnaire devant l'épicondyle ulnaire. La seule publication disponible au sujet de l'utilisation de l'anesthésie locale dans le traitement du tunnel ulnaire considère comme irréalisable d'utiliser cette méthode dans le cas d'une transposition. Malgré cette mise en garde, nous avons, depuis plusieurs années, des excellents résultats avec la transposition du nerf ulnaire sous anesthésie locale. Avec le but d'objectiver notre expérience dans ce domaine nous avons souhaité analyser nos résultats de façon rétrospective avec particulière attention aux douleurs post-opératoires et à la satisfaction des patients. Les dossiers de cinquante patients Consécutifs (26F, 24M) opérés par le même chirurgien dans notre service de 2002 à 2012 ont été analysés rétrospectivement. Les critères suivants ont été récoltés: l'âge du patient, la profession, la main dominante, les détails des techniques opératoires utilisées, le type d'anesthésie, l'intensité du suivi ainsi que les complications, le niveau de douleur dans l'immédiat post-opératorie ainsi que à une année de l'intervention. Les patients ont été divisés en 4 groupes: les opérés sous anesthésie générale avec transposition du nerf (n=17) ou sans transposition (n=10) et les opérés sous anesthésie locale avec transposition (n=12) ou sans transposition (n=11). Au premier jour la douleur était comparable dans tous les groupes. A une semaine, elle était deux fois plus importante lorsque la transposition avait été réalisée sous anesthésie générale par rapport à si une anesthésie locale avait été effectuée (p=0.03). La satisfaction s'est révélée plus élevée mais non significative chez les patients opérés sous anesthésie locale. Ces derniers étaient significativement plus enclins à répéter la chirurgie comparé a ceux opérés sous anesthésie générale (p=0.04). En conclusion, les résultats de cette étude suggèrent que l'anesthésie locale est au moins autant efficace que l'anesthésie générale en termes de complications et de douleurs post-opératoires indépendamment du fait qu'une transposition nerveuse soit effectuée ou pas. Un meilleur contrôle des douleurs à une semaine post-opératoire a contribué à une haute satisfaction des patients de notre étude.
Resumo:
Messages à retenir: La scanographie hélicoïdale à collimation fine sur l'ensemble du thorax est l'examen de référence pour le diagnostic et l'évaluation de la distributiontopographique et de l'étendue des bronchectasies.Les reformations multiplanaires et les techniques de projection d'intensité maximum et minimum améliorent les performances diagnostiques et permettent unemeilleure détection des lésions associées des petites voies aériennes (bronchiolite infectieuse, bronchiolite oblitérative).Chez les patients atteints de bronchectasies, le degré d'épaississement pariétal bronchique ainsi que l'étendue des zones hypodenses hypoperfusées traduisantdes lésions d'obstruction bronchiolaire sont parfaitement corrélés à la sévérité du retentissement fonctionnel de la maladie .La scanographie est peu fiable pour reconnaître le diagnostic étiologique des bronchectasies. Résumé: La scanographie hélicoïdale multidétecteur à collimation fine sur l'ensemble du thorax au cours d'une seule et même apnée inspiratoire est supérieure auxexamens en coupes fines incrémentales haute résolution avec un intervalle de coupes de 10 mm, pour le diagnostic et l'évaluation de l'étendue desbronchectasies. L'usage des reformations multiplanaires améliore la détection des bronchectasies, augmente la reproductibilité des radiologues pour lediagnostic des bronchectasies ainsi que leur niveau de confiance pour apprécier la distribution lésionnelle . L'examen scanographique évalue le nombre et ladistribution des impactions mucoïdes dans des bronches dilatées et le retentissement de l'atteinte bronchique sur les voies aériennes distales et le parenchymepulmonaire. La recherche d'atteinte associée des petites voies aériennes est systématique : détection des foyers de bronchiolite infectieuse et évaluation de l'étendue des zones hypodenses, hypoperfusées, avec piégeage, qui reflètent les lésions de bronchiolite oblitérative . Ces dernières sont corrélées au degré desévérité de l'obstruction fonctionnelle. La scanographie reste peu fiable pour le diagnostic étiologique des bronchectasies. Inversement, certains mécanismessont facilement identifiés, tels que les bronchectasies post-obstructives et les bronchectasies par traction des fibroses pulmonaires .
Resumo:
RÉSUMÉ Introduction L'effet des agents myorelaxants ainsi que des anticholinestérases sur la profondeur d'anesthésie a été étudié avec des résultats contradictoires. C'est pourquoi nous avons évalué l'effet de l'atracurium et de la néostigmine sur le BIS (bispectral index) ainsi que sur les potentiels auditives évoqués (middle-latency auditory evoked potentials, A-Line® autoregressive index [AAI]). Méthodes Après avoir obtenu l'accord du comité d'éthique local, nous avons étudié 40 patients ayant donné leur consentement écrit, ASA I-II, âgé de 18-69 ans. L'anesthésie générale a consisté en anesthésie intra-veineuse à objectif de concentration avec du propofol et du remifentanil. La fonction de la jonction neuromusculaire était monitorée en continu au moyen d'un électromyographe. Le BIS et l'AAI ont été enregistrés en continu. Après avoir atteint des valeurs stables au niveau du BIS, les patients ont été attribués à deux groupes par randomisation. Les patients du groupe 1 ont reçu 0.4 mg kg-1 d'atracurium et 5 minutes plus tard le même volume de NaCI 0.9%, dans le groupe 2 la séquence d'injection était inversée, le NaCI 0.9% en premier et l'atracurium en deuxième. Au moment où le premier « twitch » d'un train de quatre atteignait 10% de l'intensité avant la relaxation, les patients ont été randomisés une deuxième fois. Les patients du groupe N ont reçu 0.04 mg kg-1 de néostigmine et 0.01 rn9 kg-1 de glycopyrrolate alors que le groupe contrôle (G) ne recevait que 0.01 mg kg-] de glycopyrrolate. Résultats : L 'injection d'atracurium ou de NaCI 0.9% n'a pas eu d'effet sur le BIS ou l'AAI. Après l'injection de néostigmine avec glycopyrrolate, le BIS et I `AAI a augmenté de manière significative (changement maximal moyen du BIS 7.1 ± 7.5, P< 0.001, de l'AAI 9.7 ± 10.5, P< 0.001). Suite à l'injection de glycopyrrolate seule, le BIS et l'AAI a augmenté également (changement maximal moyen du BIS 2.2 ± 3.4, P< 0.008, de l'AAI 3.5 ± 5.7, P< 0.012), mais cette augmentation était significativement moins importante que dans le groupe N (P< 0.012 pour le BIS, P< 0.027 pour l'AAI). Conclusion Ces résultats laissent supposer que la néostigmine peut altérer la profondeur de l'anesthésie. La diminution de la profondeur d'anesthésie enregistrée par le BIS et l'AAI correspond probablement à une réapparition brusque d'une stimulation centrale liée à la proprioception. Au contraire, lors de la curarisation, le tonus musculaire diminue de manière beaucoup plus progressive, pouvant ainsi expliquer l'absence d'effet sur la profondeur d'anesthésie. ABSTRACT Background. Conflicting effects of neuromuscular blocking drugs and anticholinesterases on depth of anaesthesia have been reported. Therefore we evaluated the effect of atracurium and neostigmine on bispectral index (BIS) and middle-latency auditory evoked potentials (AAI). Methods. We studied 40 patients (ASA I-II) aged 18-69 yr. General anaesthesia consisted of propofol and remifentanil by target-controlled infusion and neuromuscular function was monitored by electromyography. When BIS reached stable values, patients were randomly assigned to one of two groups. Group I received atracurium 0.4 mg kg-1 and, 5 min later, the same volume of NaCl 0.9%; group 2 received saline first and then atracurium. When the first twitch of a train of four reached 10% of control intensity, patients were again randomized: one group (N) received neostigmine 0.04 mg kg-1 and glycopyrrolate 0.01 mg kg-1, and the control group (G) received only glycopyrrolate. Results. Injection of atracurium or NaCl 0.9% had no effect on BIS or AAI. After neostigmine¬glycopyrrolate, BIS and AAI increased significantly (mean maximal change of BIS 7.1 [SD 7.5], P<0.001; mean maximal change of AAI 9.7 [10.5], P<0.001). When glycopyrrolate was injected alone BIS and AAI also increased (mean maximal change of BIS 2.2 [3.4], P=0.008; mean maximal change of AAI 3.5 [5.7], P=0.012), but this increase was significantly less than in group N (P=0.012 for BIS; P=0.027 for AAI). Conclusion. These data suggest that neostigmine alters the state of propofol-remifentanil anaesthesia and may enhance recovery.
Resumo:
La présente recherche se propose de désobstruer un certain nombre de catégories « esthétiques », au sens étendu du terme, de leur métaphysique implicite. La thèse que je souhaite défendre se présente sous la forme d'un paradoxe : d'une part, le sens originel d'« esthétique » a été perdu de vue, d'autre part, malgré cet oubli, quiconque s'interroge philosophiquement sur les beaux-arts reçoit, nolens volens, Baumgarten en héritage. Avec AEsthetica (1750/1758), ouvrage inachevé et hautement problématique, nous pourrions dire, citant René Char, qu'il s'agit-là d'un « héritage précédé d'aucun testament ». En d'autres termes, ce qui nous échoit nous occupe, voire nous préoccupe, sans que nous disposions des outils conceptuels pour nous y rapporter librement. Soyons clairs, je ne soutiens pas que l'esthétique philosophique, telle qu'elle s'énonce à ses débuts, soit un passage obligé pour penser l'art, et ce d'autant plus qu'il ne s'agit pas d'un passage, mais proprement d'une impasse. Ce que je veux dire, c'est que Kant répond à Baumgarten, et que Hegel répond à Kant et ainsi de suite. Il n'y a pas de tabula rasa dans l'histoire de la pensée, et l'oubli de l'historicité d'une pensée est le meilleur moyen de la neutraliser en simple supplément culturel, tout en demeurant entièrement captifs de ses présupposés.Au départ, la question qui motivait implicitement la rédaction de cette recherche se formulait ainsi : « Dans quelle mesure la philosophie énonce-t-elle quelque chose d'important au sujet des beaux-arts ? » Au fil du temps, la question s'est inversée pour devenir : « Qu'est-ce que les écrits sur les beaux- arts, tels qu'ils foisonnent au 18e siècle, nous enseignent à propos de la philosophie et des limites inhérentes à sa manière de questionner ?» Et gardons-nous de penser qu'une telle inversion cantonne la question de l'esthétique, au sens très large du terme, à n'être qu'une critique immanente à l'histoire de la philosophie. Si la philosophie était une « discipline » parmi d'autres, un « objet » d'étude possible dans la liste des matières universitaires à choix, elle ne vaudrait pas, à mon sens, une seule heure de peine. Mais c'est bien parce que la philosophie continue à orienter la manière dont nous nous rapportons au « réel », au « monde » ou à l'« art » - je place les termes entre guillemets pour indiquer qu'il s'agit à la fois de termes usuels et de concepts philosophiques - que les enjeux de la question de l'esthétique, qui est aussi et avant tout la question du sentir, excèdent l'histoire de la philosophie.Pour introduire aux problèmes soulevés par l'esthétique comme discipline philosophique, j'ai commencé par esquisser à grands traits la question du statut de l'image, au sens le plus général du terme. Le fil conducteur a été celui de l'antique comparaison qui conçoit la poésie comme une « peinture parlante » et la peinture comme une « poésie muette ». Dans le prolongement de cette comparaison, le fameux adage ut pictura poesis erit a été conçu comme le véritable noeud de toute conception esthétique à venir.Il s'est avéré nécessaire d'insister sur la double origine de la question de l'esthétique, c'est-à-dire la rencontre entre la pensée grecque et le christianisme. En effet, l'un des concepts fondamentaux de l'esthétique, le concept de création et, plus spécifiquement la possibilité d'une création ex nihiio, a été en premier lieu un dogme théologique. Si j'ai beaucoup insisté sur ce point, ce n'est point pour établir une stricte identité entre ce dogme théologique et le concept de création esthétique qui, force est de l'admettre, est somme toute souvent assez flottant dans les écrits du 18e siècle. L'essor majeur de la notion de création, couplée avec celle de génie, sera davantage l'une des caractéristiques majeures du romantisme au siècle suivant. La démonstration vise plutôt à mettre en perspective l'idée selon laquelle, à la suite des théoriciens de l'art de la Renaissance, les philosophes du Siècle des Lumières ont accordé au faire artistique ou littéraire une valeur parfaitement inédite. Si l'inventeur du terme « esthétique » n'emploie pas explicitement le concept de création, il n'en demeure pas moins qu'il attribue aux poètes et aux artistes le pouvoir de faire surgir des mondes possibles et que ceux-ci, au même titre que d'autres régions de l'étant, font l'objet d'une saisie systématique qui vise à faire apparaître la vérité qui leur est propre. Par l'extension de l'horizon de la logique classique, Baumgarten inclut les beaux-arts, à titre de partie constituante des arts libéraux, comme objets de la logique au sens élargi du terme, appelée « esthético- logique ». L'inclusion de ce domaine spécifique d'étants est justifiée, selon les dires de son auteur, par le manque de concrétude de la logique formelle. Or, et cela n'est pas le moindre des paradoxes de l'esthétique, la subsomption des beaux-arts sous un concept unitaire d'Art et la portée noétique qui leur est conférée, s'opère à la faveur du sacrifice de leur singularité et de leur spécificité. Cela explique le choix du titre : « métaphysique de l'Art » et non pas « métaphysique de l'oeuvre d'art » ou « métaphysique des beaux-arts ». Et cette aporîe constitutive de la première esthétique est indépassable à partir des prémices que son auteur a établies, faisant de la nouvelle discipline une science qui, à ce titre, ne peut que prétendre à l'universalité.Au 18e siècle, certaines théories du beau empruntent la voie alternative de la critique du goût. J'ai souhaité questionner ces alternatives pour voir si elles échappent aux problèmes posés par la métaphysique de l'Art. Ce point peut être considéré comme une réplique à Kant qui, dans une note devenue célèbre, soutient que « les Allemands sont les seuls à se servir du mot "esthétique" pour désigner ce que d'autres appellent la critique du goût ». J'ai démontré que ces deux termes ne sont pas synonymes bien que ces deux positions philosophiques partagent et s'appuient sur des présupposés analogues.La distinction entre ces deux manières de penser l'art peut être restituée synthétiquement de la sorte : la saisie systématique des arts du beau en leur diversité et leur subsomption en un concept d'Art unitaire, qui leur attribue des qualités objectives et une valeur de vérité indépendante de toute saisie subjective, relègue, de facto, la question du jugement de goût à l'arrière-plan. La valeur de vérité de l'Art, définie comme la totalité des qualités intrinsèques des oeuvres est, par définition, non tributaire du jugement subjectif. Autrement dit, si les oeuvres d'art présentent des qualités intrinsèques, la question directrice inhérente à la démarche de Baumgarten ne peut donc nullement être celle d'une critique du goût, comme opération subjective {Le. relative au sujet, sans que cela soit forcément synonyme de « relativisme »), mais bien la quête d'un fondement qui soit en mesure de conférer à l'esthétique philosophique, en tant que métaphysique spéciale, sa légitimité.Ce qui distingue sur le plan philosophique le projet d'une métaphysique de l'Art de celui d'une esthétique du goût réside en ceci que le premier est guidé, a priori, par la nécessité de produire un discours valant universellement, indépendant des oeuvres d'art, tandis que le goût, pour s'exercer, implique toujours une oeuvre singulière, concrète, sans laquelle celui-ci ne reste qu'à l'état de potentialité. Le goût a trait au particulier et au contingent, sans être pour autant quelque chose d'aléatoire. En effet, il n'est pas un véritable philosophe s'interrogeant sur cette notion qui n'ait entrevu, d'une manière ou d'une autre, la nécessité de porter le goût à la hauteur d'un jugement, c'est-à-dire lui conférer au moins une règle ou une norme qui puisse le légitimer comme tel et le sauver du relativisme, pris en son sens le plus péjoratif. La délicatesse du goût va même jusqu'à être tenue pour une forme de « connaissance », par laquelle les choses sont appréhendées dans toute leur subtilité. Les différents auteurs évoqués pour cette question (Francis Hutcheson, David Hume, Alexander Gerard, Louis de Jaucourt, Montesquieu, Voltaire, D'Alembert, Denis Diderot, Edmund Burke), soutiennent qu'il y a bien quelque chose comme des « normes » du goût, que celles-ci soient inférées des oeuvres de génie ou qu'elles soient postulées a priori, garanties par une transcendance divine ou par la bonté de la Nature elle-même, ce qui revient, en dernière instance au même puisque le geste est similaire : rechercher dans le suprasensible, dans l'Idée, un fondement stable et identique à soi en mesure de garantir la stabilité de l'expérience du monde phénoménal.La seconde partie de la recherche s'est articulée autour de la question suivante : est-ce que les esthétiques du goût qui mesurent la « valeur » de l'oeuvre d'art à l'aune d'un jugement subjectif et par l'intensité du sentiment échappent aux apories constitutives de la métaphysique de l'Art ?En un sens, une réponse partielle à cette question est déjà contenue dans l'expression « esthétique du goût ». Cette expression ne doit pas être prise au sens d'une discipline ou d'un corpus unifié : la diversité des positions présentées dans cette recherche, bien que non exhaustive, suffit à le démontrer. Mais ce qui est suggéré par cette expression, c'est que ces manières de questionner l'art sont plus proches du sens original du terme aisthêsis que ne l'est la première esthétique philosophique de l'histoire de la philosophie. L'exercice du goût est une activité propre du sentir qui, en même temps, est en rapport direct avec la capacité intellectuelle à discerner les choses et à un juger avec finesse et justesse.Avec le goût esthétique s'invente une espèce de « sens sans organe » dont la teneur ontologique est hybride, mais dont le nom est identique à celui des cinq sens qui procurent la jouissance sensible la plus immédiate et la moins raisonnable qui soit. Par la reconnaissance de l'existence d'un goût « juste » et « vrai », ou à défaut, au moins de l'existence d'une « norme » indiscutable de celui-ci, c'est-à-dire de la possibilité de formuler un jugement de goût une tentative inédite de spîritualisation de la sensibilité a lieu.Par conséquent, il est loin d'être évident que ce que j'ai appelé les esthétiques du goût échappent à un autre aspect aporétique de la métaphysique de l'Art, à savoir : passer à côté du caractère singulier de telle ou telle oeuvre afin d'en dégager les traits universels qui permettent au discours de s'étayer. Dans une moindre mesure, cela est même le cas dans les Salons de Diderot où, trop souvent, le tableau sert de prétexte à l'élaboration d'un discours brillant.Par contre, tout l'intérêt de la question du goût réside en ceci qu'elle présente, de façon particulièrement aiguë, les limites proprement métaphysiques dont l'esthétique, à titre de discipline philosophique, se fait la légataire et tente à sa manière d'y remédier par une extension inédite du concept de vérité et sa caractérisai ion en termes de vérité « esthéticologique » au paragraphe 427 de Y Esthétique. Cela dit, le fait même que dans l'empirisme la sensibilité s'oppose, une fois de plus, à l'intellect comme source de la naissance des idées - même si c'est dans la perspective d'une réhabilitation de la sensibilité -, indique que l'horizon même de questionnement demeure inchangé. Si le goût a pu enfin acquérir ses lettres de noblesse philosophique, c'est parce qu'il a été ramené, plus ou moins explicitement, du côté de la raison. Le jugement portant sur les arts et, de manière plus générale, sur tout ce qui est affaire de goût ne saurait se limiter au sentiment de plaisir immédiat. Le vécu personnel doit se transcender en vertu de critères qui non seulement permettent de dépasser le relativisme solipsiste, mais aussi de donner forme à l'expérience vécue afin qu'elle manifeste à chaque fois, et de façon singulière, une portée universelle.Le goût, tel qu'il devient un topos des discours sur l'art au 18e siècle, peut, à mon sens, être interprété comme l'équivalent de la glande pinéale dans la physiologie cartésienne : l'invention d'un « je ne sais quoi » situé on ne sait où, sorte d'Hermès qui assure la communication entre l'âme et le corps et sert l'intermédiaire entre l'intellect et la sensibilité. L'expérience décrite dans l'exercice du goût implique de facto une dimension par définition occultée par la métaphysique de l'Art : le désir. Pour goûter, il faut désirer et accepter d'être rempli par l'objet de goût. Dans l'exercice du goût, le corps est en jeu autant que l'intellect, il s'agit d'une expérience totale dans laquelle aucune mise à distance théorétique n'est, en un premier temps, à même de nous prémunir de la violence des passions qui nous affectent. L'ambiguïté de cette notion réside précisément dans son statut ontologiquement problématique. Mais cette incertitude est féconde puisqu'elle met en exergue le caractère problématique de la distinction entre corps et esprit. Dans la notion de goût est contenue l'idée que le corps pense aussi et que, par voie de conséquence, la sensibilité n'est pas dépourvue de dimension spirituelle. Reste que formuler les choses de la sorte revient à rejouer, en quelque sorte, l'antique diaphorâ platonicienne et à convoquer, une fois de plus, les grandes oppositions métaphysiques telles que corps et âme, sensible et intelligible, matière et forme.La troisième partie est entièrement consacrée à Shaftesbury qui anticipe le statut ontologiquement fort de l'oeuvre d'art (tel qu'il sera thématisé par Baumgarten) et l'allie à une critique du goût. Cet auteur peut être considéré comme une forme d'exception qui confirme la règle puisque sa métaphysique de l'Art laisse une place prépondérante à une critique du goût. Mais le cumul de ces deux caractéristiques opposées un peu schématiquement pour les besoins de la démonstration n'invalide pas l'hypothèse de départ qui consiste à dire que la saisie philosophique de la question du goût et l'invention conjointe de l'esthétique au 18e siècle sont deux tentatives de trouver une issue au problème du dualisme des substances.Cette recherche doit être prise comme une forme de propédeutique à la fois absolument nécessaire et parfaitement insuffisante. Après Baumgarten et le siècle du goût philosophique, les propositions de dépassement des apories constitutives d'une tradition qui pense l'art à partir de couples d'oppositions métaphysiques tels qu'âme et corps, forme et matière, ainsi que leurs traductions dans les arts visuels (dessin et couleur ou encore figuration et abstraction), n'ont pas manqué. Il aurait fallu in fine s'effacer pour laisser la place aux plasticiens eux-mêmes, mais aussi aux poètes, non plus dans l'horizon de Y ut pictura, mais lorsqu'ils expriment, sans verser dans l'analyse conceptuelle, leurs rencontres avec telle ou telle oeuvre (je pense à Baudelaire lorsqu'il évoque Constantin Guys, à Charles Ferdinand Ramuz lorsqu'il rend hommage à Cézanne ou encore à Pascal Quignard lorsqu'il raconte les fresques de la maison des Dioscures à Pompéi, pour ne citer que trois noms qui affleurent immédiatement à ma mémoire tant leur souvenir est vivace et leur exemple un modèle). Et puis il s'agit, malgré tout, de ne pas renoncer pour autant au discours esthétique, c'est- à-dire à la philosophie, mais de réinterroger les catégories dont nous sommes les légataires et de penser avec et au-delà des limites qu'elles nous assignent. Mais cela ferait l'objet d'un autre ouvrage.
Resumo:
L'objectif de cette recherche est d'explorer l'impact des abus sexuels tel que perçu par des personnes adultes ayant été victimes dans leur enfance. Une attention particulière est portée sur l'évolution de cette perception. A cette fin, deux groupes de personnes ont été sollicités : des patients suivis en thérapie de groupe dans un centre spécialisé et des personnes ayant terminé une thérapie centrée sur les abus sexuels depuis au moins cinq ans.Des entretiens semi-structurés ont été menés tous les six mois pendant deux ans avec six femmes en thérapie, ainsi qu'avec trois femmes et un homme ayant terminé leur travail thérapeutique à ce sujet.L'analyse qualitative, inspirée de l'IPA, a révélé huit thèmes. A la recherche de la normalité, Vie intime et sexualité, et Du secret à la reconnaissance sont trois des problématiques majeures présentées par les femmes aux premiers entretiens. L'analyse révèle l'évolution de ces thèmes au cours des deux ans et les « témoins de l'après-thérapie » donnent des pistes quant aux suites possibles. Les participants témoignent également de leurs diverses Démarches thérapeutiques. Question de survie est un thème faisant trait à la dissociation structurelle de la personnalité telle qu'elle apparaît dans le discours des participants et telle qu'ils la décrivent. De la réviviscence au souvenir, Attribution de sens et Vivre après amènent chacun des aspects spécifiques liés à la résilience et ultimement à l'épanouissement.Ces résultats font ressortir des thématiques qui se révèlent être particulièrement difficiles pour ces personnes ayant été abusées sexuellement dans leur enfance, tout en soulignant l'évolution possible au fil du temps et à l'aide des thérapies. Ils révèlent également les manières dont le traumatisme est peu à peu intégré par les participants dans leur histoire de vie.This study's aim is to explore how survivors perceive the impact on their adult life of child sexual abuse and how it changes over time. To this effect, two groups of people were solicited: patients involved in group therapy in a specialised treatment centre and people who had finished therapy focused on the trauma caused by the abuse at least five years prior to this study.Semi-structured interviews were conducted at 6-month intervals over two years with six women in therapy. Three women and one man who had finished therapy accepted to share their experience.Qualitative analysis inspired by IPA revealed eight themes. Searching for normality, Tuning feelings with sexual life, and From secrecy to acknowledgment are three of the main issues presented by the women at the initial interviews. The analysis reveals how these themes evolve over the two years, while the participants who have finished their therapy give insights of possible futures. Participants also reflected on their various Therapeutical experiences. A matter of survival relates to structural dissociation of the personality as it appears in the participants' discourse and as they describe it. Placing the memory in the past, Making meaning, and And life goes on each bring out specific aspects linked to resiliency and finally to thriving.These results highlight the issues that are particularly difficult in dealing with the aftermaths of child sexual abuse and underline their possible transformation with time and therapy. They also reveal the ways in which the trauma is gradually integrated by the participants into their life-history.
Resumo:
Ami, ou ennemi, le soleil ? Qui n'a jamais maudit un petit excès de bain de soleil sanctionné par une peau brûlée ? Mais en hiver, quand il se fait rare, l'huile de foie de morue est la panacée que prescrit la sagesse de nos grands-mères pour remplacer la vitamine D qu'en temps normal il nous aide à synthétiser. Pour pouvoir faire le point sur les dangers et les bénéfices du rayonnement solaire, il faut connaître son intensité et en particulier celle du rayonnement ultraviolet (UV) qui a une forte influence sur la santé.Durant ces dernières décades, une forte augmentation des cancers de la peau a été constatée dans les pays développés. La communauté médicale suppose que cette augmentation est liée à une plus forte exposition aux UV, qui serait elle-même due à des changements d'habitudes de la population (engouement pour les loisirs en plein air, pour les vacances sous les tropiques, popularité du bronzage, etc.) et éventuellement à un accroissement du rayonnement UV. [Auteurs]