45 resultados para Déterminants Intrinsèques et Extrinsèques


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objectifs: Déterminer les caractéristiques en IRM 3T et discuter l'étiologie des fractures dorsales du triquetrum. Evaluer les lésions associées, notamment des ligamentsextrinsèques dorsaux.Matériels et méthodes: Etude rétrospective (septembre 2007 - décembre 2010) incluant 18 patients avec radiographies conventionnelles et IRM du poignet à 3T présentant une fracturedorsale du triquetrum. Protocole IRM comprenant une séquence T1-VIBE coronale haute résolution (0,3mm) isotropique avec suppression de graisse et aprèsinjection intraveineuse de Gadolinium. Lecture consensuelle par 2 radiologues évaluant les caractéristiques suivantes : taille et déplacement du fragment osseux,localisation de l'oedème médullaire, lésion des ligaments extrinsèques dorsaux (radio-triquetral, scapho-triquetral et ulno-triquetral), autres lésions associées.Inclusion d'un groupe contrôle de 20 patients, afin d'évaluer localisation et visibilité des enthèses ligamentaires extrinsèques dorsales .Résultats: Identification de 14 lésions ligamentaires scapho-triquetrales, 12 ulno-triquetrales et 8 radio-triquetrales, corrélées à la localisation de l'oedème osseux. Absenced'oedème de la styloïde ulnaire évocatrice de conflit. Volume moyen des fragments de 210 mm3, avec déplacement le plus fréquemment distal. Dans le groupecontrôle, visibilité des ligaments scapho-triquetral, radio-triquetral et ulno-triquetral dans respectivement 100% (20/20), 90% (18/20) et 70% (14/20) des cas.Conclusion: L'IRM 3T permet d'évaluer précisément les fractures dorsales du triquetrum et leurs lésions associées , y compris la distribution des oedèmes osseux. Cesfractures auraient donc une étiologie mixte.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cet article est un compte-rendu du colloque "Evolution in Structured Population", tenu du 14 au 16 Septembre 1994 à l'Université de Lausanne. Consacré aux causes écologiques et conséquences évolutives d'horizons divers (zoologie, botanique, anthropologie, mathématiques), utilisant des approches variées, aussi bien empiriques que théoriques. Plusieurs exemples concrets de structurations génétiques de populations naturelles ont été documentés, et leurs causes analysées. Celles-ci sont variées, certaines étant extrinsèques à la biologie des espèces concernées (distances géographique, barrières écologiques, etc), d'autres intrinsèques (stratégies de reproduction, mutations chromosomiques). Les outils quantitatifs les plus largement utilisés pour analyser ces structures restent les F-statistiques de Whright; elles ont néanmoins fait l'objet de plusieurs critiques: d'une part, elles n'exploitent pas toute l'information disponible (certains orateurs ont d'ailleurs proposé diverses améliorations dans ce sens); d'autre part, les hypothèses qui sous-tendent leur interprétation conventionelle (en particulier l'hypothèse de populations à l'équilibre) sont régulièrement violées. Plusieurs des travaux présentés se sont précisément intéressés aux situations de déséquilibre et à leurs conséquences sur la dynamique et l'évolution des populations. Parmi celles ci: l'effet d'extinctions démiques sur les stratégies de dispersion des organismes et la structure génétique de leurs métapopulations, l'inadéquation du modèle classique de métapopulation, dit modèle en île (les modèles de diffusion ou de "pas japonais" (stepping stone) semblent généralement préférables), et le rôle de la "viscosité" des populations, en particulier en relation avec la sélection de parentèle et l'évolution de structures sociales. Le rôle important d'événements historiques sur les structures actuelles a été souligné, notamment dans le cadre de contacts secondaires entre populations hautement différenciées, leur introgression possible et la biogéographie de taxons vicariants. Parmi les problèmes récurrents notés: l'identification de l'unité panmictique, l'échelle de mesure spatiale appropriée, et les difficulté d'estimation des taux de migration et de flux de gènes. Plusieurs auteurs ont relevé la nécessité d'études biologiques de détail: les structures génétiques n'ont d'intérêt que dans la mesure où elles peuvent être situées dans un contexte écologique et évolutif précis. Ce point a été largement illustré dans le cadre des realtions entre structures génétiques et stratégies de reproduction/dispersion.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé L'ostéoporose est une maladie systémique du squelette caractérisée par une fragilité osseuse augmentée avec pour conséquence une augmentation de la susceptibilité aux fractures. C'est actuellement un important problème de santé publique avec des conséquences majeures pour les systèmes de soins tant d'un point de vue médical que financier. Les projections mondiales prévoient une augmentation significative du nombre de fractures de la hanche d'ici 2050. Cette étude vise à analyser l'influence des apports nutritionnels par rapport à celle de la condition physique sur le risque de fracture ostéoporotique en reprenant les données évaluant la consommation de produits laitiers au sein du collectif de l'étude SEMOF («Evaluation suisse de méthodes de mesure du risque de fracture ostéoporotique»). Nous avons d'abord montré que les apports moyens en calcium des 7788 femmes âgées de 70 ans et plus ayant participé à l'étude sont inférieurs aux recommandations suisses et internationales. Des trois régions étudiées, la Suisse romande est celle où les apports quotidiens moyens en calcium et en protéines provenant des produits laitiers sont les plus faibles et où l'incidence des fractures de la hanche secondaires à l'ostéoporose est la plus élevée. Les apports en calcium et en protéines sont également plus élevés à la campagne par rapport à la ville alors que l'incidence des fractures de la hanche n'est pas significativement différente entre ville et campagne. De plus, nous avons montré que les apports quotidiens moyens en calcium et en protéines provenant des produits laitiers ne diffèrent pas significativement entre les femmes avec ou sans fracture de la hanche pendant le suivi. En revanche, la condition physique des femmes qui ont présenté une fracture de la hanche est significativement moins bonne. Sur la base de données anamnestiques concernant les facteurs de risque de chute et la mobilité, nous avons développé un score permettant d'identifier les femmes les plus à risque de chute. La condition physique de ces femmes, attestée par le test de la chaise et la mesure de la force de préhension est la moins bonne. Toutefois, leurs apports quotidiens moyens en calcium et en protéines provenant des produits laitiers ne diffèrent pas significativement par rapport aux femmes à faible risque de chute. En conclusion, le risque de fracture de la hanche liée à l'ostéoporose est plus élevé chez les femmes de plus de 70 ans vivant en Suisse romande que dans les deux autres régions linguistiques. Il est déterminé avant tout par le risque de chute et par la condition physique. Les apports en calcium et en protéines provenant des produits laitiers, tels que nous les avons évalués ne semblent pas déterminants.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

"L'emploi et les conditions de travail ont une grande incidence sur l'équité en santé", note l'Organisation mondiale de la santé (OMS) dans un rapport publié en 2008: ils font partie des principaux déterminants sociaux "à l'origine d'une grande part des inégalités en santé observées entre pays et dans les pays". Ce constat se fonde sur un vaste corpus d'enquêtes et de recherches menées à l'échelle internationale, dont le renouveau ces trois dernières décennies a été stimulé par l'explosion du chômage et de la précarisation de l'emploi, ainsi que par l'intensification du travail. Pour la première fois, une vue chiffrée d'ensemble de cette problématique est également disponible pour la Suisse, basée sur les données de la dernière enquête suisse sur la santé, réalisée en 2007 par l'Office fédéral de la statistique (OFS). L'étude dont nous présentons ici les résultats cherche à répondre à trois questions?: 1) Quelles sont les conditions de travail à risque (physique ou psycho-social) les plus fréquentes? Qui y est le plus exposé, en fonction notamment du sexe, de la position sociale ou de la branche d'activité? 2) Quelles associations peut-on mettre en évidence entre ces conditions de travail et l'état de santé? 3) Quels sont les liens entre le fait d'être au chômage ou de craindre pour son emploi et l'état de santé? Les données analysées révèlent un lien significatif entre les conditions de travail à risques, plus fréquentes que souvent admis, et une santé dégradée chez les personnes concernées. L'association est encore plus forte avec le fait d'être au chômage. Ces réalités sont souvent passées sous silence, en Suisse encore plus qu'ailleurs. Cette étude contribue à les rendre visibles et à instruire ainsi le débat nécessaire sur les conditions économiques et sociales de leur changement. Débat dont l'actualité est redoublée par les conséquences dramatiques sur l'emploi et sur les conditions de travail de l'actuelle crise économique internationale. [Ed.]

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé L'objectif de la thèse est de comprendre le mode d'organisation économique spécifique aux petits centres urbains qui composent les espaces frontaliers sahéliens, en s'interrogeant sur leur concurrence ou leur complémentarité éventuelle à l'intérieur d'un régime de spatialité particulier. En s'appuyant sur l'exemple du carrefour économique de Gaya-Malanville-Kamba situé à la frontière entre le Niger, le Bénin et le Nigeria, il questionne le rôle de la ville-frontière ainsi que le jeu des acteurs marchands localement dominants, à partir de quatre grandes interrogations : Quelles sont les spécificités de l'Afrique sahélienne qui obligent à renouveler les approches géographiques de l'espace marchand? Quels sont les facteurs déterminants de l'activité économique frontalière? Les formes d'organisation de l'espace qui concourent à la structuration de l'économie sont-elles concurrentes ou coopératives? Les logiques économiques frontalières sont-elles compatibles avec l'orientation des programmes de développement adoptés par les pays sahéliens et leurs partenaires bi- ou multilatéraux? Dans une première partie, un modèle territorial de l'Afrique sahélienne permet de rendre compte de la prédominance des logiques circulatoires sur les logiques productives, une propriété essentielle de toute organisation économique confrontée à l'instabilité climatique. Dans une seconde partie, l'étude considère les facteurs déterminants de l'activité économique frontalière que sont le degré d'enclavement des territoires, la libre circulation des biens et des personnes, les relations concurrentielles ou coopératives qui lient les marchés ainsi que les liens clientélistes qui unissent patron et obligés. Une troisième partie est consacrée aux productions agricoles de tente organisées sous forme de coopératives paysannes ou d'initiatives privées. Une quatrième partie s'intéresse aux réseaux de l'import-export et du commerce de détail qui bénéficient de l'augmentation des besoins engendrée par l'urbanisation sahélienne. L'économie spatiale qui résulte de ces flux est organisée selon deux logiques distinctes : d'une part, les opportunités relatives à la production agricole conduisent certains investisseurs à intensifier l'irrigation pour satisfaire la demande des marchés urbains, d'autre part, les acteurs du capitalisme marchand, actifs dans l'import-export et la vente de détail, développent des réseaux informels et mobiles qui se jouent des différentiels nationaux. Les activités commerciales des villes-marchés connaissent alors des fluctuations liées aux entreprises productives et circulatoires de ces patrons, lesquelles concourent à l'organisation territoriale générale de l>Afrique sahélienne. Ces logiques évoluent dans un contexte fortement marqué par les politiques des institutions financières internationales, des agences bilatérales de coopération et des ONGs. Celles-ci se donnent pour ambition de transformer les économies, les systèmes politiques et les organisations sociales sahéliennes, en faisant la promotion du libéralisme, de la bonne gouvernance et de la société civile. Ces axes directeurs, qui constituent le champ de bataille contemporain du développement, forment un ensemble dans lequel la spécificité sahélienne notamment frontalière est rarement prise en compte. C'est pourquoi l'étude conclut en faveur d'un renouvellement des politiques de développement appliquées aux espaces frontaliers. Trois grands axes d'intervention peuvent alors être dégagés, lesquels permettent de réconcilier des acteurs et des logiques longtemps dissociés: ceux des espaces séparés par une limite administrative, ceux de la sphère urbaine et rurale et ceux du capitalisme marchand et de l'investissement agricole, en renforçant la coopération économique transfrontalière, en prenant en considération les interactions croissantes entre villes et campagnes et en appuyant les activités marchandes. Abstract: Urbanisation in West Africa is recent and fast. If only 10 % of the total population was living in urban areas in 1950, this proportion reached 40 % in 2000 and will be estimated to 60 % in 2025. Small and intermediate cities, located between the countryside and large metropolis, are particularly concerned with this process. They are nowadays considered as efficient vectors of local economic development because of fiscal or monetary disparities between states, which enable businessmen to develop particular skills based on local urban networks. The majority of theses networks are informal and extremely flexible, like in the Gaya - Malanville - Kamba region, located between Niger, Benin and Nigeria. Evidence show that this economic space is characterised by high potentialities (climatic and hydrological conditions, location on main economic West African axis) and few constraints (remoteness of some potentially high productive areas). In this context, this PhD deals with the economic relationships between the three market cities. Focusing on the links that unite the businessmen of the local markets - called patron; - it reveals the extreme flexibility of their strategies as well as the deeply informal nature of their activities. Through the analysis of examples taken from the commerce of agricultural products, import and export flows and detail activities, it studies the changes that have taken place in the city centres of Gaya, Malanville and Kamba. Meanwhile, this research shows how these cities represent a border economical area based on rival and complementary connections. In the first Part, it was necessary to reconsider the usual spatial analysis devoted to the question of economic centrality. As a matter of fact, the organisation of West African economic spaces is very flexible and mobile. Centrality is always precarious because of seasonal or temporary reasons. This is why the first chapters are devoted to the study of the specificity of the Sahelian territoriality. Two main elements are relevant: first the population diversity and second, the urban-rural linkages. In the second part, the study considers three main factors on which the cross-border economic networks are dependent: enclosure that prevents goods to reach the markets, administrative constraints that limit free trade between states and cities and the concurrent or complementary relationships between markets. A third part deals with the clientelist ties engaged between the patrons and their clients with the hypothesis that these relationships are based on reciprocity and inequality. A fourth part is devoted to' the study of the spatial organisation of commercial goods across the borders, as far as the agriculture commercial products, the import-export merchandises and the retail products are concerned. This leads to the conclusion that the economic activity is directly linked to urban growth. However, the study notices that there is a lack of efficient policies dealing with strengthening the business sector and improving the cross-border cooperation. This particularity allows us to favour new local development approaches, which would take into account the important potential of private economical actors. In the same time, the commercial flows should be regulated with the help of public policies, as long as they are specifically adapted to the problems that these areas have to deal with.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La présente recherche se propose de désobstruer un certain nombre de catégories « esthétiques », au sens étendu du terme, de leur métaphysique implicite. La thèse que je souhaite défendre se présente sous la forme d'un paradoxe : d'une part, le sens originel d'« esthétique » a été perdu de vue, d'autre part, malgré cet oubli, quiconque s'interroge philosophiquement sur les beaux-arts reçoit, nolens volens, Baumgarten en héritage. Avec AEsthetica (1750/1758), ouvrage inachevé et hautement problématique, nous pourrions dire, citant René Char, qu'il s'agit-là d'un « héritage précédé d'aucun testament ». En d'autres termes, ce qui nous échoit nous occupe, voire nous préoccupe, sans que nous disposions des outils conceptuels pour nous y rapporter librement. Soyons clairs, je ne soutiens pas que l'esthétique philosophique, telle qu'elle s'énonce à ses débuts, soit un passage obligé pour penser l'art, et ce d'autant plus qu'il ne s'agit pas d'un passage, mais proprement d'une impasse. Ce que je veux dire, c'est que Kant répond à Baumgarten, et que Hegel répond à Kant et ainsi de suite. Il n'y a pas de tabula rasa dans l'histoire de la pensée, et l'oubli de l'historicité d'une pensée est le meilleur moyen de la neutraliser en simple supplément culturel, tout en demeurant entièrement captifs de ses présupposés.Au départ, la question qui motivait implicitement la rédaction de cette recherche se formulait ainsi : « Dans quelle mesure la philosophie énonce-t-elle quelque chose d'important au sujet des beaux-arts ? » Au fil du temps, la question s'est inversée pour devenir : « Qu'est-ce que les écrits sur les beaux- arts, tels qu'ils foisonnent au 18e siècle, nous enseignent à propos de la philosophie et des limites inhérentes à sa manière de questionner ?» Et gardons-nous de penser qu'une telle inversion cantonne la question de l'esthétique, au sens très large du terme, à n'être qu'une critique immanente à l'histoire de la philosophie. Si la philosophie était une « discipline » parmi d'autres, un « objet » d'étude possible dans la liste des matières universitaires à choix, elle ne vaudrait pas, à mon sens, une seule heure de peine. Mais c'est bien parce que la philosophie continue à orienter la manière dont nous nous rapportons au « réel », au « monde » ou à l'« art » - je place les termes entre guillemets pour indiquer qu'il s'agit à la fois de termes usuels et de concepts philosophiques - que les enjeux de la question de l'esthétique, qui est aussi et avant tout la question du sentir, excèdent l'histoire de la philosophie.Pour introduire aux problèmes soulevés par l'esthétique comme discipline philosophique, j'ai commencé par esquisser à grands traits la question du statut de l'image, au sens le plus général du terme. Le fil conducteur a été celui de l'antique comparaison qui conçoit la poésie comme une « peinture parlante » et la peinture comme une « poésie muette ». Dans le prolongement de cette comparaison, le fameux adage ut pictura poesis erit a été conçu comme le véritable noeud de toute conception esthétique à venir.Il s'est avéré nécessaire d'insister sur la double origine de la question de l'esthétique, c'est-à-dire la rencontre entre la pensée grecque et le christianisme. En effet, l'un des concepts fondamentaux de l'esthétique, le concept de création et, plus spécifiquement la possibilité d'une création ex nihiio, a été en premier lieu un dogme théologique. Si j'ai beaucoup insisté sur ce point, ce n'est point pour établir une stricte identité entre ce dogme théologique et le concept de création esthétique qui, force est de l'admettre, est somme toute souvent assez flottant dans les écrits du 18e siècle. L'essor majeur de la notion de création, couplée avec celle de génie, sera davantage l'une des caractéristiques majeures du romantisme au siècle suivant. La démonstration vise plutôt à mettre en perspective l'idée selon laquelle, à la suite des théoriciens de l'art de la Renaissance, les philosophes du Siècle des Lumières ont accordé au faire artistique ou littéraire une valeur parfaitement inédite. Si l'inventeur du terme « esthétique » n'emploie pas explicitement le concept de création, il n'en demeure pas moins qu'il attribue aux poètes et aux artistes le pouvoir de faire surgir des mondes possibles et que ceux-ci, au même titre que d'autres régions de l'étant, font l'objet d'une saisie systématique qui vise à faire apparaître la vérité qui leur est propre. Par l'extension de l'horizon de la logique classique, Baumgarten inclut les beaux-arts, à titre de partie constituante des arts libéraux, comme objets de la logique au sens élargi du terme, appelée « esthético- logique ». L'inclusion de ce domaine spécifique d'étants est justifiée, selon les dires de son auteur, par le manque de concrétude de la logique formelle. Or, et cela n'est pas le moindre des paradoxes de l'esthétique, la subsomption des beaux-arts sous un concept unitaire d'Art et la portée noétique qui leur est conférée, s'opère à la faveur du sacrifice de leur singularité et de leur spécificité. Cela explique le choix du titre : « métaphysique de l'Art » et non pas « métaphysique de l'oeuvre d'art » ou « métaphysique des beaux-arts ». Et cette aporîe constitutive de la première esthétique est indépassable à partir des prémices que son auteur a établies, faisant de la nouvelle discipline une science qui, à ce titre, ne peut que prétendre à l'universalité.Au 18e siècle, certaines théories du beau empruntent la voie alternative de la critique du goût. J'ai souhaité questionner ces alternatives pour voir si elles échappent aux problèmes posés par la métaphysique de l'Art. Ce point peut être considéré comme une réplique à Kant qui, dans une note devenue célèbre, soutient que « les Allemands sont les seuls à se servir du mot "esthétique" pour désigner ce que d'autres appellent la critique du goût ». J'ai démontré que ces deux termes ne sont pas synonymes bien que ces deux positions philosophiques partagent et s'appuient sur des présupposés analogues.La distinction entre ces deux manières de penser l'art peut être restituée synthétiquement de la sorte : la saisie systématique des arts du beau en leur diversité et leur subsomption en un concept d'Art unitaire, qui leur attribue des qualités objectives et une valeur de vérité indépendante de toute saisie subjective, relègue, de facto, la question du jugement de goût à l'arrière-plan. La valeur de vérité de l'Art, définie comme la totalité des qualités intrinsèques des oeuvres est, par définition, non tributaire du jugement subjectif. Autrement dit, si les oeuvres d'art présentent des qualités intrinsèques, la question directrice inhérente à la démarche de Baumgarten ne peut donc nullement être celle d'une critique du goût, comme opération subjective {Le. relative au sujet, sans que cela soit forcément synonyme de « relativisme »), mais bien la quête d'un fondement qui soit en mesure de conférer à l'esthétique philosophique, en tant que métaphysique spéciale, sa légitimité.Ce qui distingue sur le plan philosophique le projet d'une métaphysique de l'Art de celui d'une esthétique du goût réside en ceci que le premier est guidé, a priori, par la nécessité de produire un discours valant universellement, indépendant des oeuvres d'art, tandis que le goût, pour s'exercer, implique toujours une oeuvre singulière, concrète, sans laquelle celui-ci ne reste qu'à l'état de potentialité. Le goût a trait au particulier et au contingent, sans être pour autant quelque chose d'aléatoire. En effet, il n'est pas un véritable philosophe s'interrogeant sur cette notion qui n'ait entrevu, d'une manière ou d'une autre, la nécessité de porter le goût à la hauteur d'un jugement, c'est-à-dire lui conférer au moins une règle ou une norme qui puisse le légitimer comme tel et le sauver du relativisme, pris en son sens le plus péjoratif. La délicatesse du goût va même jusqu'à être tenue pour une forme de « connaissance », par laquelle les choses sont appréhendées dans toute leur subtilité. Les différents auteurs évoqués pour cette question (Francis Hutcheson, David Hume, Alexander Gerard, Louis de Jaucourt, Montesquieu, Voltaire, D'Alembert, Denis Diderot, Edmund Burke), soutiennent qu'il y a bien quelque chose comme des « normes » du goût, que celles-ci soient inférées des oeuvres de génie ou qu'elles soient postulées a priori, garanties par une transcendance divine ou par la bonté de la Nature elle-même, ce qui revient, en dernière instance au même puisque le geste est similaire : rechercher dans le suprasensible, dans l'Idée, un fondement stable et identique à soi en mesure de garantir la stabilité de l'expérience du monde phénoménal.La seconde partie de la recherche s'est articulée autour de la question suivante : est-ce que les esthétiques du goût qui mesurent la « valeur » de l'oeuvre d'art à l'aune d'un jugement subjectif et par l'intensité du sentiment échappent aux apories constitutives de la métaphysique de l'Art ?En un sens, une réponse partielle à cette question est déjà contenue dans l'expression « esthétique du goût ». Cette expression ne doit pas être prise au sens d'une discipline ou d'un corpus unifié : la diversité des positions présentées dans cette recherche, bien que non exhaustive, suffit à le démontrer. Mais ce qui est suggéré par cette expression, c'est que ces manières de questionner l'art sont plus proches du sens original du terme aisthêsis que ne l'est la première esthétique philosophique de l'histoire de la philosophie. L'exercice du goût est une activité propre du sentir qui, en même temps, est en rapport direct avec la capacité intellectuelle à discerner les choses et à un juger avec finesse et justesse.Avec le goût esthétique s'invente une espèce de « sens sans organe » dont la teneur ontologique est hybride, mais dont le nom est identique à celui des cinq sens qui procurent la jouissance sensible la plus immédiate et la moins raisonnable qui soit. Par la reconnaissance de l'existence d'un goût « juste » et « vrai », ou à défaut, au moins de l'existence d'une « norme » indiscutable de celui-ci, c'est-à-dire de la possibilité de formuler un jugement de goût une tentative inédite de spîritualisation de la sensibilité a lieu.Par conséquent, il est loin d'être évident que ce que j'ai appelé les esthétiques du goût échappent à un autre aspect aporétique de la métaphysique de l'Art, à savoir : passer à côté du caractère singulier de telle ou telle oeuvre afin d'en dégager les traits universels qui permettent au discours de s'étayer. Dans une moindre mesure, cela est même le cas dans les Salons de Diderot où, trop souvent, le tableau sert de prétexte à l'élaboration d'un discours brillant.Par contre, tout l'intérêt de la question du goût réside en ceci qu'elle présente, de façon particulièrement aiguë, les limites proprement métaphysiques dont l'esthétique, à titre de discipline philosophique, se fait la légataire et tente à sa manière d'y remédier par une extension inédite du concept de vérité et sa caractérisai ion en termes de vérité « esthéticologique » au paragraphe 427 de Y Esthétique. Cela dit, le fait même que dans l'empirisme la sensibilité s'oppose, une fois de plus, à l'intellect comme source de la naissance des idées - même si c'est dans la perspective d'une réhabilitation de la sensibilité -, indique que l'horizon même de questionnement demeure inchangé. Si le goût a pu enfin acquérir ses lettres de noblesse philosophique, c'est parce qu'il a été ramené, plus ou moins explicitement, du côté de la raison. Le jugement portant sur les arts et, de manière plus générale, sur tout ce qui est affaire de goût ne saurait se limiter au sentiment de plaisir immédiat. Le vécu personnel doit se transcender en vertu de critères qui non seulement permettent de dépasser le relativisme solipsiste, mais aussi de donner forme à l'expérience vécue afin qu'elle manifeste à chaque fois, et de façon singulière, une portée universelle.Le goût, tel qu'il devient un topos des discours sur l'art au 18e siècle, peut, à mon sens, être interprété comme l'équivalent de la glande pinéale dans la physiologie cartésienne : l'invention d'un « je ne sais quoi » situé on ne sait où, sorte d'Hermès qui assure la communication entre l'âme et le corps et sert l'intermédiaire entre l'intellect et la sensibilité. L'expérience décrite dans l'exercice du goût implique de facto une dimension par définition occultée par la métaphysique de l'Art : le désir. Pour goûter, il faut désirer et accepter d'être rempli par l'objet de goût. Dans l'exercice du goût, le corps est en jeu autant que l'intellect, il s'agit d'une expérience totale dans laquelle aucune mise à distance théorétique n'est, en un premier temps, à même de nous prémunir de la violence des passions qui nous affectent. L'ambiguïté de cette notion réside précisément dans son statut ontologiquement problématique. Mais cette incertitude est féconde puisqu'elle met en exergue le caractère problématique de la distinction entre corps et esprit. Dans la notion de goût est contenue l'idée que le corps pense aussi et que, par voie de conséquence, la sensibilité n'est pas dépourvue de dimension spirituelle. Reste que formuler les choses de la sorte revient à rejouer, en quelque sorte, l'antique diaphorâ platonicienne et à convoquer, une fois de plus, les grandes oppositions métaphysiques telles que corps et âme, sensible et intelligible, matière et forme.La troisième partie est entièrement consacrée à Shaftesbury qui anticipe le statut ontologiquement fort de l'oeuvre d'art (tel qu'il sera thématisé par Baumgarten) et l'allie à une critique du goût. Cet auteur peut être considéré comme une forme d'exception qui confirme la règle puisque sa métaphysique de l'Art laisse une place prépondérante à une critique du goût. Mais le cumul de ces deux caractéristiques opposées un peu schématiquement pour les besoins de la démonstration n'invalide pas l'hypothèse de départ qui consiste à dire que la saisie philosophique de la question du goût et l'invention conjointe de l'esthétique au 18e siècle sont deux tentatives de trouver une issue au problème du dualisme des substances.Cette recherche doit être prise comme une forme de propédeutique à la fois absolument nécessaire et parfaitement insuffisante. Après Baumgarten et le siècle du goût philosophique, les propositions de dépassement des apories constitutives d'une tradition qui pense l'art à partir de couples d'oppositions métaphysiques tels qu'âme et corps, forme et matière, ainsi que leurs traductions dans les arts visuels (dessin et couleur ou encore figuration et abstraction), n'ont pas manqué. Il aurait fallu in fine s'effacer pour laisser la place aux plasticiens eux-mêmes, mais aussi aux poètes, non plus dans l'horizon de Y ut pictura, mais lorsqu'ils expriment, sans verser dans l'analyse conceptuelle, leurs rencontres avec telle ou telle oeuvre (je pense à Baudelaire lorsqu'il évoque Constantin Guys, à Charles Ferdinand Ramuz lorsqu'il rend hommage à Cézanne ou encore à Pascal Quignard lorsqu'il raconte les fresques de la maison des Dioscures à Pompéi, pour ne citer que trois noms qui affleurent immédiatement à ma mémoire tant leur souvenir est vivace et leur exemple un modèle). Et puis il s'agit, malgré tout, de ne pas renoncer pour autant au discours esthétique, c'est- à-dire à la philosophie, mais de réinterroger les catégories dont nous sommes les légataires et de penser avec et au-delà des limites qu'elles nous assignent. Mais cela ferait l'objet d'un autre ouvrage.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A partir du cas clinique d'une adolescente de 15 ans prise en charge à l'hôpital de jour, nous nous proposons d'observer certaines fonctions et modes d'expression d'une violence explosive. Repérée comme " violente " dès sa petite enfance, cette jeune fille a grandi dans un milieu peu contenant qui n'a cessé de reculer devant sa violence et qui n'a opposé que peu de limites à sa toute-puissance. Son admission à 1 'hôpital de jour fait suite à une situation familiale de crise et une recrudescence des passages à l'acte violents sur sa petite soeur. Les déterminants institutionnels ont alors suscité un redéploiement de la violence, avec des circuits complexes d'expression alternant entre l'auto et l'hétéroagressivité. A la fois répétition et repère iclentitaire, cette violence est également une forme de communication pour l'adolescente qui exprime ainsi divers indicibles, dont sa souffrance, et qui module les orientations de la prise en charge. Les réponses institutionnelles à la violence de cette adolescente, perçue comme extrêmement dangereuse et impulsive, ont la lourde tâche de s'inscrire dans une visée à la fois compréhensive (sur le plan psychopathologique) et répressive-éducative.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction : Avec le vieillissement de la population, le nombre de patients brûlés âgés a augmenté. La prise en charge médicale et chirurgicale globale des brûlés s'est nettement améliorée mais demeure difficile dans cette population vulnérable. Il manque des facteurs prédictifs précoces pour prédire la mortalité de ces patients. Cette étude a pour objectif d'essayer d'en identifier certains. Méthodes : Etude descriptive rétrospective de données collectées prospectivement dans un système informatisé (MetaVision®) sur une période qui s'étend de janvier 2001 à décembre 2010: 53 variables sont colligées et soumises à des analyses univariées en fonction du devenir chez des patients âgés de plus de 50ans. Résultats : 101 patients sur 363 admissions pendant la même période ont été étudiés : ils sont âgés de 66.6 ± 11.9 ans, brûlés sur 21.5 ± 14.9 % surface corporelle (BSA), et 16 sont décédés (15.8%). Vingt variables sont statistiquement significativement associées avec un décès : BSA, % de brûlure chirurgicale, score de BAUX, BAUX modifié, abbreviated burn severity index (ABSI), SAPS II, insuffisance rénale aiguë et chronique, cardiopathie ischémique, pression intra-abdominale élevée (y.c. syndrome du compartiment abdominal), bilan liquidien cumulé à J5 et à J10, sur-réanimation liquidienne, usage de plasma frais congelé, albuminémie, CRP, bicarbonates, créatinine et nutrition entérale. Conclusion : Plusieurs variables cliniques , certains déjà identifiés, mais également plusieurs nouveaux liés à la réponse physiologique du patient. Une étude ont été identifiées comme étant associés à un pronostic défavorable des patients brûlés âgés incluant un nombre plus élevé de patients permettrait de faire des analyses multivariées et de dégager des facteurs prédictifs combinés.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En Suisse, un peu moins de 5 % de la population se déclarent musulmans. Originaires pour la majeure partie des grandes vagues migratoires de la fin du XXe siècle, les musulmans helvétiques sont le plus souvent identifiés individuellement. Ce livre présente la réalité institutionnelle et peu connue de l'islam en Suisse à partir de plusieurs enquêtes menées sur la manière dont il s'organise. Sa présence est très diversifiée selon les contextes cantonaux différents et les origines culturelles bien contrastées d'un musulman des Balkans, du Maghreb ou de la Turquie. Ces recherches menées par des sociologues et des politologues dessinent une mosaïque qui montre à partir de l'islam pratiquant et confessant qu'il ne peut être réduit aux formes conservatrices et violentes que certains considèrent comme la traduction obligée de toute posture musulmane. Cet ouvrage propose un portrait contrasté de l'islam en Suisse avec, d'une part, des ensembles qui tentent d'organiser légitimement leur culte et de maintenir leur héritage religieux et, d'autre part, des défis déterminants à relever pour l'intégration des fidèles, comme les liens avec le pays d'origine, l'indépendance financière des mosquées ou les questions relatives aux revendications religieuses ou culturelles de l'identité musulmane. A partir de la réalité musulmane, ce livre expose toute l'ambiguïté de nos sociétés « tolérantes » et « ouvertes », mais démunies et contradictoires face à l'émergence récente de la pluralité religieuse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction Le tabac non fumé (smokeless tobacco) comprend les formes de tabac qui ne sont pas consommées par combustion. Les deux principaux types de consommation sont le snus, par application sur la muqueuse orale, et le tabac à sniffer. Le premier se consomme surtout en Suède et les pays scandinaves ; la consommation du second a récemment fait son apparition en Suisse malgré son interdiction. Méthodes Nous avons utilisé la base de données de la Cohort on substance use risk factors (C-surf), une cohorte de jeunes hommes suisses se présentant à 3 centres de recrutement de l'Armée Suisse (Lausanne, Windisch et Mels). Un total de 13 245 jeunes hommes ont été invités à participer à cette enquête sur la consommation de substances. Le taux de réponses a été de 45.2%. Nous avons inclu 5720 participants pour cette analyse et utilisé une approche statistique par régression logistique pour identifier les déterminants de consommation de tabac non fumé. Résultats L'âge moyen des participants était de 19.5 ans. 8% des participants ont déclaré consommer régulièrement du tabac à sniffer et 3% consommer du snus au moins une fois par mois. La consommation de tabac à sniffer était associée à la consommation non quotidienne de cigarettes [odds ratio (OR) 2.41, 95% confidence interval (Cl) 1.90-3.05], ainsi qu'à celle d'alcool à risque (OR 3.93, 95% Cl 1.86-8.32) etépisodique (OR 7.41, 95% Cl 4.11-13.38). Un BMI élevé, un revenu familial au-dessus de la moyenne et un faible niveau de formation étaient également associés à la consommation de tabac à sniffer, alors que la consommation occasionnelle de cannabis l'était négativement. Les facteurs associés à la consommation de snus étaient similaires à ceux du tabac à sniffer. Conclusions Un jeune homme suisse sur 12 consomme du tabac à sniffer et 3% consomment du snus. La consommation de tabac non fumé est associée à d'autres comportements à risque, en particulier la consommation d'alcool à risque. Les résultats de la régression logistique multivariée montrent une association de la consommation de tabac non fumé à la consommation d'alcool à risque. Le rôle du tabac non fumé dans l'induction de la dépendance à la nicotine et dans l'initiation à d'autres comportements à risque, ainsi que ses effets sur la santé devront être analysés sur la base d'études longitudinales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'article vise à identifier les déterminants du stress et de la satisfaction au travail parmi une population de cadres intermédiaires exerçant dans des établissements hospitaliers de Suisse romande. Il vise également à combler un vide dans les études sur les administrations publiques suisses: mieux saisir, au moyen d'une enquête par questionnaires, quels sont les principales variables qui se trouvent à l'origine de la satisfaction au travail et qui peuvent être des ressources pour les acteurs afin de faire face au stress. L'étude confirme des résultats de recherches internationales, montrant que des facteurs relationnels et des caractéristiques du travail sont les principaux déterminants du stress et de la satisfaction. Elle souligne dès lors l'importance d'adopter une lecture « structurelle » et « organisationnelle » du stress et de la satisfaction, soulignant aussi que les caractéristiques individuelles de la population étudiée n'expliquent qu'une très infime variance de ces phénomènes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'étude classique des attributions de responsabilité instiguée par Heider en psychologie sociale s'est principalement bornée à aborder ce processus psychosocial dans une perspective individualiste qui se cantonne aux niveaux intra-individuel et interpersonnel (selon la distinction opérée par Doise). Les réflexions et les travaux empiriques présentés dans cette thèse ont deux objectifs. Dans un premier temps, il s?agit d'élargir cette perspective aux autres niveaux sociologique et idéologique (en faisant notamment recours à l'approche des attributions sociales et aux propositions de Fauconnet sur les règles de responsabilité). Deuxièmement, il s?agit d'éprouver la pertinence d'une telle approche dans un contexte particulier : celui du travail en groupe dont la nature des rapports sociaux qui y étaient présentés ont été manipulés à l'aide de scénarii chez des étudiant-e-s de l?Université de Lausanne. L?objectif principal de cette thèse est donc de tester un modèle d?ancrage des attributions de responsabilité qui permette de souligner les dynamiques représentationnelles sous-jacentes en termes de légitimation ou de remise en cause de l?organisation des groupes. Dans l?ensemble les résultats indiquent que si la nature des rapports sociaux (re)présentés dans un groupe sont de puissants déterminants de la manière de légitimer ou de remettre en cause l?organisation des groupes, le niveau individuel d'adhésion à des croyances idéologiques dominantes, comme la justification du système économique, représente un modérateur des prises de position des répondant-e-s interrogé-e-s. De plus, il semble que ces processus évoluent dans le temps, faisant ainsi apparaître l'existence de phénomènes de socialisation relativement plus complexes que ne le laissent entendre les recherches actuellement effectuées dans ce domaine. En effet, si des connaissances idéologiques sur le monde sont acquises dans les filières universitaires et n?interviennent pas toujours dans les processus de formation des représentations du travail en groupe, des connaissances spécifiques aux disciplines et à la politique de sélection universitaire semblent intervenir dans le processus de légitimation des rapports sociaux dans les groupes au niveau des attributions. En tentant une articulation entre les concepts d?ancrage des représentations sociales, d?attribution et de socialisation, cette thèse permet ainsi de souligner la pertinence qu?il y a à insérer une problématique en termes de croyances idéologiques dans l?étude des groupes sociaux.<br/><br/>Heider?s approach of responsibility attributions almost exclusively emphasized on an individualistic point of view ; i.e. focusing at an intraindividual and interpersonnal level of analysis according to Doise?s distinction. The reflexions and empirical studies presented here firstly aim at broaden this perspective by taking socio-structural as well as societal levels of analysis into account. Secondly, it is to test this approach in the particular domain of organized groups. Manipulation of the structure of social relations in work groups on screenplays were undertaken (in a population of students from the Lausanne University). Hence, the main goal of these studies is to test the impact of the social ancoring of social representations in the responsibility processes in terms of legitimation or opposition to the group organization. All in all, the results show that social structures are powerfull predictors of the formation of social representations of a work situation and so forth of the attribution process. Nevertheless hegemonic ideological beliefs, such as Economical System Justification, do play a substantial moderating role in this process. It also proves to be evolving through time. The present findings show that a complexe process of socialization is occuring during the student?s university life. Indeed, the results let us believe that ideological beliefs may not interact anytime in the group?s perception and in the construction of the representation of the situation. In the same time, it seems that more discipline specific oriented knowledge and the impact of selection policy at the Lausanne University also predict the groupe legimation process and interfer with the ideological beliefs. Trying to articulate concepts of fields of research like social representations, attribution and socialization, the present thesis allows to underline the heuristic potential of reabilitating ideological beliefs at a dispositional level in the study of group process.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé pour large public Unité de Biochimie et Psychopharmacologie Clinique, Centre de neurosciences Psychiatrique, Département de Psychiatrie Adulte, Faculté de Biologie et de Médecine, Université de Lausanne Lors de la prise d'un médicament, celui-ci va passer par différentes étapes que sont l'absorption, la distribution, le métabolisme et enfin l'élimination. Ces quatre étapes sont regroupées sous le nom de pharmacocinétique. A noter que ces quatre paramètres sont dynamiques et en constante évolution. Durant cette thèse, nous avons investigué différents aspects de la pharmacocinétique, tout d'abord par une revue de la littérature sur la glycoprotéine-P (Pgp). Récemment découverte, cette protéine de membrane est située aux endroits stratégiques de l'organisme comme la barrière hématoencéphalée, le placenta ou les intestins où elle influencera l'entrée de différentes substances, en particulier les médicaments. La Pgp serait impliquée dans les phénomènes de résistances aux agents thérapeutiques en oncologie. La Pgp influence donc l'absorption des médicaments, et son impact en clinique, en termes d'efficacité de traitement et de toxicité prend chaque jour plus d'importance. Ensuite nous avons mis au point une méthode d'analyse quantitative d'un antidépresseur d'une nouvelle génération : la mirtazapine (Remeron®). La nouveauté réside dans la façon dont la mirtazapine interagit avec les neurotransmetteurs impliqués dans la dépression que sont la sérotonine et la noradrénaline. Cette méthode utilise la chromatographie liquide pour séparer la mirtazapine de ses principaux métabolites dans le sang. La spectrométrie de masse est utilisée pour les détecter et les quantifier. Les métabolites sont des substances issues de réactions chimiques entre la substance mère, la mirtazapine, et généralement des enzymes hépatiques, dans le but de rendre cette substance plus soluble en vue de son élimination. Cette méthode permet de quantifier la mirtazapine et ses métabolites dans le sang de patients traités et de déterminer la variation des taux plasmatiques chez ces patients. Puis nous avons étudié le métabolisme d'un autre antidépresseur, le citalopram, qui a un métabolisme complexe. Le citalopram est un racémate, c'est-à-dire qu'il existe sous forme de deux entités chimiques (R-(-) et S-(+) citalopram) qui ont le même nombre d'éléments mais arrangés différemment dans l'espace. La voie métabolique cérébrale du citalopram est sous le contrôle d'une enzyme, la monoamine oxydase (MAO), conduisant à une forme acide du citalopram (l'acide propionique du citalopram). La MAO existe sous deux formes : MAO-A et MAO-B. Nous avons utilisé des souris déficientes d'un gène, celui de la MAO-A, pour mieux en comprendre le métabolisme en les comparants à des souris sauvages (sans déficience de ce gène). Nous avons utilisé le citalopram et deux de ses métabolites (le déméthylcitaloprarn et le didéméthyícitalopram) comme substrats pour tester la formation in vitro de l'acide propionique du citalopram. Nos résultats montrent que la MAO-A favorise la formation de l'entité R-(-) et présente une plus grande affinité pour le citalopram, tandis que la MAO-B métabolise préférentiellement l'entité S-(+) et a une plus grande affinité pour les deux métabolites déméthylés. De plus, la déficience en MAO-A est partiellement compensée parla MAO-B chez les souris déficientes du gène de la MAO-A. Enfin, nous avons étudié une deuxième voie métabolique du citalopram qui s'est avérée toxique chez le chien Beagle. Celle-ci est catalysée par une autre famille d'enzymes, les cytochromes P-450, et mène aux métabolites déméthylés et didéméthylés du citalopram. Nous avons utilisé des tissus hépatiques de chiens Beagle. Plusieurs cytochromes P-450 sont impliqués dans le métabolisme du citalopram menant à sa forme déméthylée, ceci tant chez l'homme que chez le chien. Par contre, dans le métabolisme de la forme déméthylée menant à 1a forme didéméthylée, un seul cytochrome P-450 serait impliqué chez l'Homme, tandis qu'ils seraient plusieurs chez le chien. L'activité enzymatique produisant la forme didéméthylée est beaucoup plus importante chez le chien comparé à l'homme. Cette observation soutien l'hypothèse que des taux élevés de la forme didéméthylée participent à la toxicité spécifique du citalopram chez le chien. Nous pouvons conclure que plusieurs famille d'enzymes sont impliquées tant au niveau cérébral qu'hépatique dans la métabolisation de médicaments psychotropes. Sachant que les enzymes peuvent être stimulées ou inhibées, il importe de pouvoir suivre au plus prés les taux plasmatiques des différents psychotropes et de leurs métabolites. Résumé Unité de Biochimie et Psychopharmacologie Clinique, Centre de neurosciences Psychiatrique, Département de Psychiatrie Adulte, Faculté de Biologie et de Médecine, Université de Lausanne La plupart des médicaments subissent une transformation enzymatique dans l'organisme. Les substances issues de cette métabolisation ne sont pas toujours dotées d'une activité pharmacologique. Il s'est avéré par conséquent indispensable de suivre les taux plasmatiques d'une substance et de ses métabolites et d'établir ou non l'existence d'une relation avec l'effet clinique observé. Ce concept nommé « therapeutic drag monitoring » (TDM) est particulièrement utile en psychiatrie ou un manque de compliance des patients est fréquemment observé. Les médicaments psychotropes ont un métabolisme principalement hépatique (cytochromes P-450) et parfois cérébral (monoamines oxydases), comme pour le citalopram par exemple. Une méthode stéréosélective de chromatographie liquide couplée à la spectrométrie de masse a été développée pour analyser les énantiomères R-(-) et S-(+) d'un antidépresseur agissant sur les récepteurs noradrénergiques et sérotoninergiques, la mirtazapine et de ses métabolites déméthylmirtazapine et 8-hydroxymirtazapine. Les données préliminaires obtenues dans les plasmas dosés suggèrent que les concentrations de R-(-)-mirtazapine sont plus élevées que celles de S-(+)-mirtazapine, à l'exception des patients qui auraient comme co-médication des inhibiteurs du CYP2D6, telle que la fluoxétine ou la thioridazine. Il y a une enantiosélectivité du métabolisme de la mirtazapine. En particulier pour la 8-hydroxymirtazapine qui est glucuroconjuguée et pour laquelle le ratio S/R varie considérablement. Cette méthode analytique présente l'avantage d'être utilisable pour le dosage stéréosélectif de la mirtazapine et de ses métabolites dans le plasma de patients ayant d'autres substances en co-médication. La glycoprotéine P fonctionne comme une pompe transmembranaire transportant les xénobiotiques depuis le milieu intracellulaire vers le milieu extracellulaire. Son induction et son inhibition, bien que moins étudiées que pour les cytochromes P-450, ont des implications cliniques importantes en termes d'efficacité de traitement et de toxicité. Cette glycoprotéine P a fait l'objet d'une recherche bibliographique. Nous avons étudié le métabolisme du citalopram, un antidépresseur de la classe des inhibiteurs spécifiques de la recapture de la sérotonine chez la souris et chez le chien. Cette substance subit un métabolisme complexe. La voie de métabolisation conduisant à la formation de l'acide propionique du citalopram, catalysée par les monoamines oxydases, a été étudiée in vitro dans les mitochondries cérébrales chez la souris déficiente du gène de la MAO-A (Tg8). La monoamine oxydase A catalyse la formation de l'énantiomère R-(-) et présente une plus grande affinité pour les amines tertiaires, tandis que la monoamine oxydase B favorise la formation de la forme S-(+) et a une affinité plus marquée pour les amines secondaires et primaires. L'étude du citalopram chez la souris Tg8 adulte a montré que la monoamine oxydase B compense la déficience de la monoamine oxydase A chez ces souris génétiquement modifiées. Une autre voie de métabolisation du citalopram conduisant à la formation de didéméthylcitalopram, catalysée par les cytochromes P-450, a été étudiée in vitro dans des microsomes hépatiques de chiens Beagle. Nos études ont montré que les cinétiques de N-déméthylation du citalopram sont biphasiques chez le chien. Les orthologues canins impliqués dans la première N-déméthylation semblent être identiques aux cytochromes P-450 humains. Par contre, dans la deuxième Ndéméthylation, un seul cytochrome P-450 semble être impliqué chez l'homme (CYP2D6), tandis qu'on retrouve jusqu'à cinq orthologues chez le chien. Le CYP2D15, orthologue canin du CYP2D6, est majoritairement impliqué. De plus, l'activité enzymatique, reflétée par les clairances intrinsèques, dans la première N-déméthylation est jusqu'à 45 fois plus élevée chez le chien comparé à l'homme. Ces différentes observations soutiennent l'hypothèse que des taux élevés de didéméthylcitalopram sont responsables de la toxicité du citalopram chez le chien. Nous pouvons conclure que plusieurs famille d'enzymes sont impliquées tant au niveau cérébral qu'hépatique dans la métabolisation de médicaments psychotropes. Sachant -que les enzymes peuvent être induits ou inhibés, il importe de pouvoir suivre au plus près les taux plasmatiques des différents psychotropes et de leurs métabolites. Summary Most of the drugs are metabolized in the organism. Substances issued from this metabolic activity do not always show a pharmacological activity. Therefore, it is necessary to monitor plasmatic levels of drugs and their metabolites, and establish the relationship with the clinical effect. This concept named therapeutic drug monitoring is very useful in psychiatry where lack of compliance is commonly observed. Antidepressants are mainly metabolized in the liver (cytochrome P-450) and sometimes in the brain (monoamine oxidase) like the citalopram, for exemple. A LC-MS method was developed, which allows the simultaneous analysis of R-(-) and S-(+) enantiomers of mirtazapine, an antidepressant acting specifically on noradrenergic and serotonergic receptors, and its metabolites demethylmirtazapine and 8-hydroxymirtazapine in plasma of mirtazapine treated patients. Preliminary data obtained suggested that R-(-) mirtazapine concentrations were higher than those of S-(+) mirtazapine, except in patients comedicated with CYP2D6 inhibitors such as fluoxetine or thioridazine. There is an enantioselectivity in the metabolism of mirtazapine. In particular for the 8-hydroxymirtazapine, which is glucuroconjugated and S/R ratio varies considerably. Therefore this method seems to be suitable for the stereoselective assay of mirtazapine and its metabolites in plasma of patients comedicated with mirtazapine and other drugs for routine and research purposes. P-glycoprotein is working as an efflux transporter of xenobiotics from intracellular to extracellular environment. Its induction or inhibition, although less studied than cytochrome P-450, has huge clinical implications in terms of treatment efficacy and toxicity. An extensive literature search on P-glycoprotein was performed as part of this thesis. The study of citalopram metabolism, an antidepressant belonging to the class of selective serotonin reuptake inhibitors. This substance undergoes a complex metabolism. First metabolization route leading to citalopram propionic acid, catalyzed by monoamine oxidase was studied in vitro in mice brain mitochondria. Monoamine oxidase A catalyzed the formation of R-(-) enantiomer and showed greater affinity for tertiary amines, whereas monoamine oxidase B triggered the formation of S-(+) enantiomer and demonstrated higher affinity for primary and secondary amines. citalopram evaluation in adult Tg8 mice showed that monoamine oxidase B compensated monoamine oxidase A deficiency in those genetically transformed mice. The second metabolization route of citalopram leading to didemethylcitalopram and catalyzed by cytochrome P-450 was studied in vitro in Beagle dog's livers. Our results showed that citalopram N-demethylation kinetics are biphasic in dogs. Canine orthologs involved in the first N-demethylation seemed to be identical to human cytochromes P-450. However, in the second N-demethylation only one cytochrome P-450 seemed to be involved in human (CYP2D6), whereas up to five canine orthologs were found in dogs. CYP2D15 canine ortholog of CYP2D6 was mainly involved. In addition, enzymatic activity reflected by intrinsic clearance in the first N-demethylation was up to 45 fold higher in dogs compared to humans. Those observations support the assumption that elevated rates of didemethylcitalopram are responsible for citalopram toxicity in dogs. We can conclude that several enzymes groups are involved in the brain, as well as in the liver, in antidepressant metabolization. Knowing that enzymes may be induced or inhibited, it makes sense to closely monitor plasmatic levels of antidepressants and their metabolites.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Syndrome de stress scolaire chronique, le bumout de l'élève ou bumout scolaire suscite un intérêt grandissant mais ses déterminants sont encore peu connus. De plus, ce phénomène est rarement étudié chez les adolescents francophones et aucune recherche n'a encore été menée en Suisse. Par conséquent, au travers de ce travail de thèse, nous proposons d'étendre la recherche sur le bumout scolaire aux adolescents de Suisse francophone et d'apporter des précisions sur ses facteurs de risque ou de protection. Pour ce faire, nous avons mené deux recherches empiriques impliquant 861 adolescents âgés de 14 à 18 ans et scolarisés en Suisse francophone. Ces adolescents ont répondu à une série d'échelles évaluant notamment le burnout scolaire, le stress scolaire, le soutien social, la consommation de substances et le parcours scolaire. Les résultats montrent tout d'abord que l'inventaire de Burnout Scolaire, version française du School Burnout lnventory, est un outil fiable et valide. Ensuite, il apparaît que le burnout scolaire touche jusqu'à 24% des adolescents de Suisse francophone et que ce dernier se caractérise par une perte d'intérêt pour l'école, une grande remise en question du sens du travail scolaire ainsi qu'un sentiment élevé d'insuffisance à l'école. Il apparaît également que le stress scolaire lié au succès et à l'avenir scolaire augmente le risque de bumout alors que le soutien des parents et des enseignants le diminue. Par ailleurs, nous mettons en évidence que l'effet du soutien social sur le burnout scolaire est médiatisé par le stress scolaire, ce qui souligne d'autant plus le rôle protecteur du soutien social. Nos résultats montrent également que les niveaux de bumout scolaire varient en fonction, d'une part de certaines caractéristiques du contexte scolaire et d'autre part en fonction de la sévérité de la consommation de substances des adolescents. Enfin, les connaissances accumulées dans ce travail et leur mise en perspective dans un modèle d'intervention précoce permettent d'insister sur le rôle de l'école et des professionnels de l'école dans la prévention du burnout scolaire. -- Syndrome of chronic school stress, pupil 's bumout or school bumout is of growing interest. However, little is known about its determinants. Moreover, this phenomenon is rarely studied in French speaking adolescents and no research has yet been conducted in Switzerland. Therefore, through this thesis, we propose to extend the research on school bumout to Swiss French speaking adolescents and to clarify its risk and protective factors. To achieve this, we conducted two empirical research involving 861 adolescents aged 14 to 18 and enrolled in the French part of Switzerland. These adolescents were asked to answer a questionnaire about school bumout, academic stress, social support, substance use and schooling. Results first show, that the French version of the School Bumout Inventory is a reliable and valid tool. lt then appears that school bumout affects up to 24% of adolescents in the French speaking part of Switzerland and that this phenomenon is characterized by a loss of interest in school, a great challenge to the sense of school work and a high sense of insufissance school. lt also appears that stress related to school success and academic future increases the risk of bumout while parents and teachers support decreases it. Moreover, we highlight that the effect of social support on school bumout is mediated by school stress, which further underscores the protective role of social support. Our results also show that school bumout levels vary depending on characteristics of the school context and on the severity of substance use of adolecents. Finally, the knowledge accumulated in this work and putting it onto perspective within early intervention model enable to insist on the role of school and school professionals in the prevention of school bumout

Relevância:

30.00% 30.00%

Publicador:

Resumo:

«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-­‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-­‐variabilité) et entre les traces digitales de donneurs différents (inter-­‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-­‐variabilité des résidus était significativement plus basse que l'inter-­‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-­‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-­‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-­‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-­‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-­‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-­‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-­‐variability) and between fingermarks of different donors (inter-­‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-­‐variability of the fingermark residue was significantly lower than the inter-­‐variability, but that it was possible to reduce both kind of variability using different statistical pre-­‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-­‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-­‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-­‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-­‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-­‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.