332 resultados para pouvoir neutre


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s'intéresse à la manière dont la peinture représente le couple, et à la manière dont le spectateur reçoit et interprète cette représentation, les deux aspects du processus étant admis étroitement solidaires l'un de l'autre. Le corpus obéit au principe d'une traversée thématique sélective sur une période qui va de 1880 à la fin du 20e siècle ; il rassemble des oeuvres de peintres de nationalités diverses (Manet, Vuillard, Bonnard, Vallotton, Munch, Schiele, Kirchner, Beckmann, Hopper et Freud, pour citer les principaux). La perspective méthodologique, définie dans l'introduction du travail, est centrée sur la réception des oeuvres, sous l'angle phénoménologique et herméneutique prioritairement. La première partie développe une approche en lien avec la littérature, où le motif du couple est omniprésent, à partir de l'hypothèse selon laquelle cette parenté intervient dans la réception du thème en peinture ; ce dont résulte fréquemment un déploiement du potentiel narratif de l'image, dont la notion de scénario permet de rendre compte. La deuxième partie se concentre sur le discours pictural en tant que tel, sur les moyens dont la peinture dispose pour faire sens en préparant la lecture à venir, et donc corollairement sur les spécificités de la réception picturale pour la catégorie considérée, soit la peinture de genre. L'attention est portée sur la réception en tant que processus, perceptif et réflexif à la fois, par lequel le spectateur trouve accès à l'oeuvre et développe avec elle une forme de dialogue. La troisième partie explore l'idée élémentaire suivante : représenter un couple, c'est toujours exposer une certaine conception de la relation entre l'homme et la femme. A travers les images du couple créées par quelques peintres majeurs de la première moitié du 20e siècle, on peut suivre l'émergence comme telle de la question du rapport entre les sexes, dont les gender studies ont fait leur objet central. Enfin, une quatrième partie a pour but d'approfondir la question du rapport que nous entretenons avec les représentations figuratives et les modalités de l'implication du spectateur. Y sont envisagés le pouvoir et le fonctionnement référentiels des oeuvres picturales, pour tenter de clarifier le statut des différents modes de compréhension et d'analyse dont nous disposons à leur égard.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Suite à la canicule de 2003, l'importance pour la santé publique des vagues de chaleur avait été mise en évidence. Cependant, les aspects se rapportant aux médicaments avaient été peu abordés, avant d'être davantage considérés mi-2004, notamment dans le «Plan canicule» français. La Pharmacie de l'ICHV s'est donc efforcée, au printemps 2004, de définir ses propres lignes d'action pour adapter son organisation et ses services. Objectifs: Définir au niveau des services pharmaceutiques, en particulier cliniques, des recommandations pratiques et proposer des moyens de mise en oeuvre. Méthode: Une recherche de littérature a été effectuée et a permis d'identifier les variables à prendre en compte. Basée sur celles-ci, une analyse ponctuelle (sur une journée) a été conduite à l'aide du dossier patient informatisé Phoenix® pour estimer la fréquence d'utilisation des médicaments à problème auprès d'une population considérée comme étant à risque (patients > 70 ans d'un service de chirurgie). Dans le domaine logistique, une recherche similaire a été conduite et des analyses à l'aide du logiciel Opale® ont été réalisées. Résultats: Compte tenu de la littérature, différentes variables en relation avec la pharmacothérapie sont à considérer: * Médicaments à risque (altérant la fonction rénale ou empêchant la perte calorique) ou à surveiller (dont la déshydratation influence la pharmacocinétique ou ceux aggravant les effets de la chaleur); * Patients à risque (> 70 ans ou déments); * Situations à risque (chirurgie élective, sortie d'hôpital). L'analyse en chirurgie a montré que 75% des patients étaient traités par des médicaments à risque et que 100% des patients recevaient des médicaments à surveiller. Au plan logistique, notre recherche a permis de définir un certain nombre de produits sensibles. Discussion-conclusion: Malgré les limites de cette analyse ponctuelle, mais compte tenu de la fréquence d'utilisation des médicaments à problème, le pharmacien doit, lors de canicules, pouvoir directement ou indirectement conseiller le prescripteur, p. ex., en: * relevant dans les dossiers, les patients, les situations et les médicaments à risque ou à surveiller et en formulant des propositions de prise en charge; * suivant systématiquement les fonctions rénales de ces patients; * proposant d'instaurer une alarme dans les dossiers informatisés pour aider à déceler les situations à risque. Au niveau de la pharmacie centrale et des pharmacies d'étage, la gestion de stock des produits sensibles requière diverses améliorations. La canicule constitue une problématique complexe et le pharmacien d'hôpital se doit d'y prêter attention dans ses activités. La pharmacie de l'ICHV, sur la base de ces éléments, va préparer un plan d'action à activer dans des conditions à convenir avec la direction et les hôpitaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Colour polymorphism is common in wild population. One of the main questioning of evolutionary biologists is to understand how different colour variants could have evolved and be maintained in fluctuating environments, a selective process that forces individuals to constantly adapt their strategies in order to survive. This issue is particularly true for traits that are genetically inherited. Natural selection erodes genotypes with lowest fitness (less adapted), reducing in turn global genetic variation within population. In this context, the study of the evolution and maintenance of melanin- based coloration is relevant since inter-individual variation in the deposition of these pigments is common in animal and plant kingdoms and is under strong genetic control. In this thesis, I focus on the specific case of the tawny owl (Strix aluco), a species displaying continuous variation in reddish pheomelanin-based coloration. Interestingly, empirical studies highlighted covariations between melanin-based coloration and important behavioural, physiological and life history traits. Recently, a genetic model pointed out the melanocortin system and their pleiotropic effects as a potential regulator of these covariations. Accordingly, this PhD thesis further investigates colour-specific behavioural, physiological, or life history strategies, while examining the proximate mechanisms underlying these reaction norms. We found that differently coloured tawny owls differently resolve fundamental trade-off between offspring number and quality (Chapter 1), light melanic individuals producing many low- quality offspring and dark, melanic ones producing few high-quality offspring. These reproductive strategies are likely to induce alternative physiological constraints. Indeed, we demonstrated that light melanic individuals produced higher levels of reactive oxygen species (ROS, Chapter 2), but also expressed higher levels of antioxidant (GSH, Chapters 2 & 3). Interestingly, we showed that light melanic breeding females could modulate their POMC prohormone levels according to the environmental conditions, while dark reddish ones produced constant levels of this prohormone {Chapter 4). Finally, we highlighted colour-specific patterns of prohormone convertase 1 (PCI) gene expression (Chapter 5), an enzyme responsible for POMC prohormone processing to ACTH and a- MSH, for instance. Altogether, these results provide strong evidence of colour-specific strategies, light and melanic tawny owls better coping with stressful and relaxed environments, respectively. Variation in melanin-based coloration is likely to be maintained by the heterogeneity of our study area and strong environmental stochasticity within and between years, these process favouring differently coloured tawny owls at different periods of time. From a proximate point of view, this PhD thesis supports the hypothesis that covariations between phenotypic traits and melanin-based coloration stems from the melanocortin system, especially the fundamental role of POMC gene expression and its processing to melanocortin peptides. - Le polymorphisme de couleur est une variation phénotypique très fréquente dans la nature. En biologie évolutive, une des problématiques clés est donc de comprendre comment différent morphes de couleur peuvent être apparus et maintenus au cours du temps dans des environnements aussi variables que les nôtres, surtout que ces fluctuations forcent ces morphes à s'adapter constamment pour assurer leur survie. Cette thématique est particulièrement réelle lorsque les variations phénotypiques sont héréditaires et donc sous forte influence génétique. La sélection naturelle a en effet le pouvoir d'éroder rapidement la variation génétique en éliminant les génotypes mal adaptés. Dans ce sens, l'étude de l'évolution, et de la maintenance de la coloration mélanique est donc tout à fait pertinente car la variation de coloration entre individus est très répandue à travers les règnes animal et végétal et sous forte influence génétique. Dans cette thèse, je me suis concentré sur le cas spécifique de la chouette hulotte (Strix aluco), une espèce présentant une variation continue dans la déposition de pigments pheomélaniques roux. De précédentes études ont déjà montré que cette variation de coloration était associée avec des variations de traits comportementaux, physiologiques ou d'histoire de vie. Récemment, une étude a souligné l'importance du système des mélanocortines et de leurs effets pléiotropes dans la régulation de ces covariations. En conséquence, cette thèse de doctoral a pour but d'étudier un peu plus les stratégies comportementales, physiologiques ou d'histoire de vie spécifiques à chaque morphe de couleur, tout en examinant un peu plus les mécanismes proximaux potentiellement à la base de ces normes de réactions. Nous constatons tout d'abord que les morphes de couleurs étaient associés à différentes stratégies dans la résolution de compromis telle que la production de beaucoup de jeunes ou des jeunes de qualité (Chapitre 1). Les morphes gris (dit peu mélaniques) ont tendance à produire beaucoup de jeunes mains de moindre qualité, alors que les morphes roux (dit fortement mélaniques) produisent moins de jeunes mais de meilleure qualité. Ces stratégies sont susceptibles alors d'induire certaines contraintes physiologiques. Par exemple, nous montrons que les morphes gris produisent plus de dérivés réactifs de l'oxygène (ROS, Chapitre 2), mais aussi plus d'antioxydants (GSH, Chapitres 2 & 3). Nous montrons ensuite que les femelles grises ont une plus grande capacité à moduler leur niveau de POMC prohormone dans le sang en fonction des conditions environnementales, alors que les femelles rousses gardent un niveau constant (Chapitre 4). Finalement, nous démontrons que les patterns d'expression du gène codant pour la prohormone convertase 1 varient chez des jeunes issus de parents gris ou roux (Chapitre 5). Ceci est particulièrement intéressant car cette enzyme permet de scinder la POMC prohormone en plusieurs peptides importants tels que l'ACTH ou l'a-MSH. En conclusion, ces résultats démontrent qu'il y a bel et bien des stratégies évolutives différentes entre les morphes de couleurs, les chouettes hulottes grises et rousses étant respectivement plus adaptés à des environnements stressants ou favorables. L'hétérogénéité de notre zone d'étude et la stochasticité environnementale qui caractérise ses habitats pourraient donc agir comme une source de sélection temporelle, laquelle favoriserait les différents morphes de couleurs à diverses périodes. D'un point de vue plus proximale maintenant, cette thèse de doctorat soutient l'hypothèse que les covariations observées entre la coloration mélanique et des traits phénotypiques importants sont modulées par les effets pléiotropes du système des mélanocortines, et met en avant le rôle prépondérant que pourrait jouer l'expression du gène POMC et sa post traduction en mélanocortines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèseLe syndrome d'apnées obstructives du sommeil (SAOS) est une pathologie respiratoire fréquente. Sa prévalence est estimée entre 2 et 5% de la population adulte générale. Ses conséquences sont importantes. Notamment, une somnolence diurne, des troubles de la concentration, des troubles de la mémoire et une augmentation du risque d'accident de la route et du travail. Il représente également un facteur de risque cardiovasculaire indépendant.Ce syndrome est caractérisé par la survenue durant le sommeil d'obstructions répétées des voies aériennes supérieures. L'arrêt ou la diminution d'apport en oxygène vers les poumons entraîne des épisodes de diminution de la saturation en oxygène de l'hémoglobine. Les efforts ventilatoires visant à lever l'obstacle présent sur les voies aériennes causent de fréquents réveils à l'origine d'une fragmentation du sommeil.La polysomnographie (PSG) représente le moyen diagnostic de choix. Il consiste en l'enregistrement dans un laboratoire du sommeil et en présence d'un technicien diplômé, du tracé électroencéphalographique (EEG), de l'électrooculogramme (EOG), de l'électromyogramme mentonnier (EMG), du flux respiratoire nasal, de l'oxymétrie de pouls, de la fréquence cardiaque, de l'électrocardiogramme (ECG), des mouvements thoraciques et abdominaux, de la position du corps et des mouvements des jambes. L'examen est filmé par caméra infrarouge et les sons sont enregistrés.Cet examen permet entre autres mesures, de déterminer les événements respiratoires obstructifs nécessaires au diagnostic de syndrome d'apnée du sommeil. On définit une apnée lors d'arrêt complet du débit aérien durant au moins 10 secondes et une hypopnée en cas, soit de diminution franche de l'amplitude du flux respiratoire supérieure à 50% durant au moins 10 secondes, soit de diminution significative (20%) de l'amplitude du flux respiratoire pendant au minimum 10 secondes associée à un micro-éveil ou à une désaturation d'au moins 3% par rapport à la ligne de base. La détection des micro-éveils se fait en utilisant les dérivations électroencéphalographiques, électromyographiques et électrooculographiques. Il existe des critères visuels de reconnaissance de ces éveils transitoire: apparition de rythme alpha (8.1 à 12.0 Hz) ou beta (16 à 30 Hz) d'une durée supérieure à 3 secondes [20-21].Le diagnostic de S AOS est retenu si l'on retrouve plus de 5 événements respiratoires obstructifs par heure de sommeil associés soit à une somnolence diurne évaluée selon le score d'Epworth ou à au moins 2 symptômes parmi les suivants: sommeil non réparateur, étouffements nocturne, éveils multiples, fatigue, troubles de la concentration. Le S AOS est gradué en fonction du nombre d'événements obstructifs par heure de sommeil en léger (5 à 15), modéré (15 à 30) et sévère (>30).La polysomnographie (PSG) comporte plusieurs inconvénients pratiques. En effet, elle doit être réalisée dans un laboratoire du sommeil avec la présence permanente d'un technicien, limitant ainsi son accessibilité et entraînant des délais diagnostiques et thérapeutiques. Pour ces mêmes raisons, il s'agit d'un examen onéreux.La polygraphie respiratoire (PG) représente l'alternative diagnostique au gold standard qu'est l'examen polysomnographique. Cet examen consiste en l'enregistrement en ambulatoire, à savoir au domicile du patient, du flux nasalrespiratoire, de l'oxymétrie de pouls, de la fréquence cardiaque, de la position du corps et du ronflement (par mesure de pression).En raison de sa sensibilité et sa spécificité moindre, la PG reste recommandée uniquement en cas de forte probabilité de SAOS. Il existe deux raisons principales à l'origine de la moindre sensibilité de l'examen polygraphique. D'une part, du fait que l'état de veille ou de sommeil n'est pas déterminé avec précision, il y a dilution des événements respiratoires sur l'ensemble de l'enregistrement et non sur la période de sommeil uniquement. D'autre part, en l'absence de tracé EEG, la quantification des micro-éveils est impossible. Il n'est donc pas possible dans l'examen poly graphique, de reconnaître une hypopnée en cas de diminution de flux respiratoire de 20 à 50% non associée à un épisode de désaturation de l'hémoglobine de 3% au moins. Alors que dans l'examen polysomnographique, une telle diminution du flux respiratoire pourrait être associée à un micro-éveil et ainsi comptabilisée en tant qu'hypopnée.De ce constat est né la volonté de trouver un équivalent de micro-éveil en polygraphie, en utilisant les signaux à disposition, afin d'augmenter la sensibilité de l'examen polygraphique.Or plusieurs études ont démontrés que les micro-éveils sont associés à des réactions du système nerveux autonome. Lors des micro-éveils, on met en évidence la survenue d'une vasoconstriction périphérique. La variation du tonus sympathique associée aux micro-éveils peut être mesurée par différentes méthodes. Les variations de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie représentant un marqueur fiable de la vasoconstriction périphérique associée aux micro-réveils, il paraît donc opportun d'utiliser ce marqueur autonomique disponible sur le tracé des polygraphies ambulatoires afin de renforcer la sensibilité de cet examen.Le but de l'étude est d'évaluer la sensibilité des variations de l'amplitude de l'onde de pouls pour détecter des micro-réveils corticaux afin de trouver un moyen d'augmenter la sensibilité de l'examen polygraphique et de renforcer ainsi sont pouvoir diagnostic.L'objectif est de démontrer qu'une diminution significative de l'amplitude de l'onde pouls est concomitante à une activation corticale correspondant à un micro¬réveil. Cette constatation pourrait permettre de déterminer une hypopnée, en polygraphie, par une diminution de 20 à 50% du flux respiratoire sans désaturation de 3% mais associée à une baisse significative de l'amplitude de pouls en postulant que l'événement respiratoire a entraîné un micro-réveil. On retrouve par cette méthode les mêmes critères de scoring d'événements respiratoires en polygraphie et en polysomnographie, et l'on renforce la sensibilité de la polygraphie par rapport au gold standard polysomnographique.La méthode consiste à montrer en polysomnographie qu'une diminution significative de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie est associée à une activation du signal électroencéphalographique, en réalisant une analyse spectrale du tracé EEG lors des baisses d'amplitude du signal d'onde de pouls.Pour ce faire nous avons réalisé une étude rétrospective sur plus de 1000 diminutions de l'amplitude de l'onde de pouls sur les tracés de 10 sujets choisis de manière aléatoire parmi les patients référés dans notre centre du sommeil (CIRS) pour suspicion de trouble respiratoire du sommeil avec somnolence ou symptomatologie diurne.Les enregistrements nocturnes ont été effectués de manière standard dans des chambres individuelles en utilisant le système d'acquisition Embla avec l'ensemble des capteurs habituels. Les données ont été par la suite visuellement analysées et mesurées en utilisant le software Somnologica version 5.1, qui fournit un signal de l'amplitude de l'onde de pouls (puise wave amplitude - PWA).Dans un premier temps, un technicien du sommeil a réalisé une analyse visuelle du tracé EEG, en l'absence des données du signal d'amplitude d'onde de pouls. Il a déterminé les phases d'éveil et de sommeil, les stades du sommeil et les micro¬éveils selon les critères standards. Les micro-éveils sont définis lors d'un changement abrupt dans la fréquence de l'EEG avec un pattern d'ondes thêta-alpha et/ou une fréquence supérieure à 16 Hz (en l'absence de fuseau) d'une durée d'au minimum trois secondes. Si cette durée excède quinze secondes, l'événement correspond à un réveil.Puis, deux investigateurs ont analysé le signal d'amplitude d'onde de pouls, en masquant les données du tracé EEG qui inclut les micro-éveils. L'amplitude d'onde de pouls est calculée comme la différence de valeur entre le zénith et le nadir de l'onde pour chaque cycle cardiaque. Pour chaque baisse de l'amplitude d'onde de pouls, la plus grande et la plus petite amplitude sont déterminées et le pourcentage de baisse est calculé comme le rapport entre ces deux amplitudes. On retient de manière arbitraire une baisse d'au moins 20% comme étant significative. Cette limite a été choisie pour des raisons pratiques et cliniques, dès lors qu'elle représentait, à notre sens, la baisse minimale identifiable à l'inspection visuelle. Chaque baisse de PWA retenue est divisée en 5 périodes contiguës de cinq secondes chacune. Deux avant, une pendant et deux après la baisse de PWA.Pour chaque période de cinq secondes, on a pratiqué une analyse spectrale du tracé EEG correspondant. Le canal EEG C4-A1 est analysé en utilisant la transformée rapide de Fourier (FFT) pour chaque baisse de PWA et pour chaque période de cinq secondes avec une résolution de 0.2 Hz. La distribution spectrale est catégorisée dans chaque bande de fréquence: delta (0.5 à 4.0 Hz); thêta (4.1 à 8.0Hz); alpha (8.1 à 12.0 Hz); sigma (12.1 à 16 Hz) et beta (16.1 à 30.0 Hz). La densité de puissance (power density, en μΥ2 ) pour chaque bande de fréquence a été calculée et normalisée en tant que pourcentage de la puissance totale. On a déterminé, ensuite, la différence de densité de puissance entre les 5 périodes par ANOVA on the rank. Un test post hoc Tukey est été utilisé pour déterminer si les différences de densité de puissance étaient significatives. Les calculs ont été effectués à l'aide du software Sigmastat version 3.0 (Systat Software San Jose, California, USA).Le principal résultat obtenu dans cette étude est d'avoir montré une augmentation significative de la densité de puissance de l'EEG pour toutes les bandes de fréquence durant la baisse de l'amplitude de l'onde de pouls par rapport à la période avant et après la baisse. Cette augmentation est par ailleurs retrouvée dans la plupart des bande de fréquence en l'absence de micro-réveil visuellement identifié.Ce résultat témoigné donc d'une activation corticale significative associée à la diminution de l'onde de pouls. Ce résulat pourrait permettre d'utiliser les variations de l'onde de pouls dans les tracés de polygraphie comme marqueur d'une activation corticale. Cependant on peut dire que ce marqueur est plus sensible que l'analyse visuelle du tracé EEG par un technicien puisque qu'on notait une augmentation de lactivité corticale y compris en l'absence de micro-réveil visuellement identifié. L'application pratique de ces résultats nécessite donc une étude prospective complémentaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'hyperplasie intimale est la cause majeure de sténoses de pontages veineux. Différents médicaments tels que les statines permettent de prévenir les sténoses mais leur administration systémique n'a que peu d'effet. Nous avons développé une matrice d'hydrogel d'acide hyaluronique qui permet d'avoir un relargage contrôlé d'atorvastatine sur un site désiré. L'enjeu de ce projet de recherche est de démontrer que l'atorvastatine relarguée par l'hydrogel a un effet similaire sur les cellules musculaires lisses de veines saphènes humaines comparé à l'atorvastatine directement diluée dans le milieu de culture. La recherche a été conduite conjointement par le laboratoire de médecine expérimentale du département de chirurgie thoracique et vasculaire du Centre Hospitalier Universitaire Vaudois et de l'Ecole de sciences pharmaceutiques des Universités de Lausanne et de Genève. On a incorporé de l'atorvastatine calcium (Chemos GmbH, Regenstauf Allemagne) dans des gels d'acide hyaluronique (Fortelis extra) à des concentrations déterminées afin de pouvoir analyser le relargage de l'Atovastatine dans le milieu de culture cellulaire par rapport aux concentrations d'atorvastatine directement ajoutées dans le milieu. Des cellules musculaires lisses primaires ont été cultivées à partir d'expiants de veines saphènes humaines. Elles ont été identifiées grâce à l'immunohistochimie par des anticorps contre la desmine et l'alpha-smooth muscle actine. La prolifération et la viabilité de ces cellules ont été analysées à l'aide du test MTT, leur transmigration avec le test de la chambre de Boyden et leur migration avec le principe de cicatrisation de plaies (wound healing assey). L'expression de gènes connus pour participer au développement de l'hyperplasie intimale, tels que la gap junction protein Connexin43 (Cx43), l'inhibiteur du plasminogène PAI-1, Thème oxygénase HO-1, la métalloproteinase-9 et l'inhibiteur de l'activateur du plasminogène tissulaire tPA, a été déterminée par niveau de mRNA exprimé en PCR. Leur expression en protéines a été analysée en utilisant la méthode par Western blots ainsi que l'immunohistochimie. Les expériences ont été effectuées à triple reprise en duplicats en parallèles avec de l'atorvastatine calcium directement ajoutée dans le milieu de culture et avec l'atorvastatine relarguée par l'hydrogel d'acide hyaluronique. Conclusions L'atorvastatine est relarguée par l'hydrogel de façon contrôlée. L'hydrogel contenant l'atorvastatine diminue la viabilité et la transmigration des cellules musculaires lisses de veines saphènes humaines de façon similaire à l'atorvastatine directement introduite dans le milieu de culture. L'hydrogel contenant l'atorvastatine module de façon sélective l'expression de marqueurs de la différentiation cellulaire de cellules musculaires lisses de veines saphènes humaines avec un retard de 24 heures comparé avec les effets de l'atorvastatine directement ajoutée au milieu de culture, sans néanmoins changer la distribution intra-cellulaire des protéines Cx43, HO-1 et PAI-1. Perspectives Il s'agit d'un projet d'importance clinique majeure permettant de réaliser des améliorations du traitement des artériopathies occlusives, ainsi que de relevance pharmacologique permettant de réaliser des dépôts de molécules avec un relargage stable et contrôlé à un site spécifique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les réformes du système de la santé, introduisant des objectifs d'efficience et de rentabilité inspirés de la doctrine de la Nouvelle gouvernance publique (NGOP), impactent l'organisation des hôpitaux et ses acteurs. Cette recherche étudie les conséquences de l'implémentation de la logique et des outils managériaux sur la profession d'infirmière en termes de contenu du travail et d'identité professionnelle. La reconfiguration des tâches au sein des structures hospitalières semble réduire l'autonomie de ces acteurs de terrain et affecter le sens que les infirmières donnent à leur travail. Par le prisme du pouvoir discrétionnaire, l'étude montre comment le personnel infirmier, principalement selon ses critères moraux, use de stratégies d'ajustement pour faire coïncider ses valeurs avec l'environnement professionnel. Toutefois, la disjonction entre les impératifs managériaux et les valeurs des infirmières engendre de la souffrance au travail. Dans une approche psychosociale, ce mémoire relie le mal-être des infirmières au concept de la « qualité empêchée » qui dévoile le mécanisme par lequel l'action des infirmières est privée en partie de son contenu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente recherche se propose de désobstruer un certain nombre de catégories « esthétiques », au sens étendu du terme, de leur métaphysique implicite. La thèse que je souhaite défendre se présente sous la forme d'un paradoxe : d'une part, le sens originel d'« esthétique » a été perdu de vue, d'autre part, malgré cet oubli, quiconque s'interroge philosophiquement sur les beaux-arts reçoit, nolens volens, Baumgarten en héritage. Avec AEsthetica (1750/1758), ouvrage inachevé et hautement problématique, nous pourrions dire, citant René Char, qu'il s'agit-là d'un « héritage précédé d'aucun testament ». En d'autres termes, ce qui nous échoit nous occupe, voire nous préoccupe, sans que nous disposions des outils conceptuels pour nous y rapporter librement. Soyons clairs, je ne soutiens pas que l'esthétique philosophique, telle qu'elle s'énonce à ses débuts, soit un passage obligé pour penser l'art, et ce d'autant plus qu'il ne s'agit pas d'un passage, mais proprement d'une impasse. Ce que je veux dire, c'est que Kant répond à Baumgarten, et que Hegel répond à Kant et ainsi de suite. Il n'y a pas de tabula rasa dans l'histoire de la pensée, et l'oubli de l'historicité d'une pensée est le meilleur moyen de la neutraliser en simple supplément culturel, tout en demeurant entièrement captifs de ses présupposés.Au départ, la question qui motivait implicitement la rédaction de cette recherche se formulait ainsi : « Dans quelle mesure la philosophie énonce-t-elle quelque chose d'important au sujet des beaux-arts ? » Au fil du temps, la question s'est inversée pour devenir : « Qu'est-ce que les écrits sur les beaux- arts, tels qu'ils foisonnent au 18e siècle, nous enseignent à propos de la philosophie et des limites inhérentes à sa manière de questionner ?» Et gardons-nous de penser qu'une telle inversion cantonne la question de l'esthétique, au sens très large du terme, à n'être qu'une critique immanente à l'histoire de la philosophie. Si la philosophie était une « discipline » parmi d'autres, un « objet » d'étude possible dans la liste des matières universitaires à choix, elle ne vaudrait pas, à mon sens, une seule heure de peine. Mais c'est bien parce que la philosophie continue à orienter la manière dont nous nous rapportons au « réel », au « monde » ou à l'« art » - je place les termes entre guillemets pour indiquer qu'il s'agit à la fois de termes usuels et de concepts philosophiques - que les enjeux de la question de l'esthétique, qui est aussi et avant tout la question du sentir, excèdent l'histoire de la philosophie.Pour introduire aux problèmes soulevés par l'esthétique comme discipline philosophique, j'ai commencé par esquisser à grands traits la question du statut de l'image, au sens le plus général du terme. Le fil conducteur a été celui de l'antique comparaison qui conçoit la poésie comme une « peinture parlante » et la peinture comme une « poésie muette ». Dans le prolongement de cette comparaison, le fameux adage ut pictura poesis erit a été conçu comme le véritable noeud de toute conception esthétique à venir.Il s'est avéré nécessaire d'insister sur la double origine de la question de l'esthétique, c'est-à-dire la rencontre entre la pensée grecque et le christianisme. En effet, l'un des concepts fondamentaux de l'esthétique, le concept de création et, plus spécifiquement la possibilité d'une création ex nihiio, a été en premier lieu un dogme théologique. Si j'ai beaucoup insisté sur ce point, ce n'est point pour établir une stricte identité entre ce dogme théologique et le concept de création esthétique qui, force est de l'admettre, est somme toute souvent assez flottant dans les écrits du 18e siècle. L'essor majeur de la notion de création, couplée avec celle de génie, sera davantage l'une des caractéristiques majeures du romantisme au siècle suivant. La démonstration vise plutôt à mettre en perspective l'idée selon laquelle, à la suite des théoriciens de l'art de la Renaissance, les philosophes du Siècle des Lumières ont accordé au faire artistique ou littéraire une valeur parfaitement inédite. Si l'inventeur du terme « esthétique » n'emploie pas explicitement le concept de création, il n'en demeure pas moins qu'il attribue aux poètes et aux artistes le pouvoir de faire surgir des mondes possibles et que ceux-ci, au même titre que d'autres régions de l'étant, font l'objet d'une saisie systématique qui vise à faire apparaître la vérité qui leur est propre. Par l'extension de l'horizon de la logique classique, Baumgarten inclut les beaux-arts, à titre de partie constituante des arts libéraux, comme objets de la logique au sens élargi du terme, appelée « esthético- logique ». L'inclusion de ce domaine spécifique d'étants est justifiée, selon les dires de son auteur, par le manque de concrétude de la logique formelle. Or, et cela n'est pas le moindre des paradoxes de l'esthétique, la subsomption des beaux-arts sous un concept unitaire d'Art et la portée noétique qui leur est conférée, s'opère à la faveur du sacrifice de leur singularité et de leur spécificité. Cela explique le choix du titre : « métaphysique de l'Art » et non pas « métaphysique de l'oeuvre d'art » ou « métaphysique des beaux-arts ». Et cette aporîe constitutive de la première esthétique est indépassable à partir des prémices que son auteur a établies, faisant de la nouvelle discipline une science qui, à ce titre, ne peut que prétendre à l'universalité.Au 18e siècle, certaines théories du beau empruntent la voie alternative de la critique du goût. J'ai souhaité questionner ces alternatives pour voir si elles échappent aux problèmes posés par la métaphysique de l'Art. Ce point peut être considéré comme une réplique à Kant qui, dans une note devenue célèbre, soutient que « les Allemands sont les seuls à se servir du mot "esthétique" pour désigner ce que d'autres appellent la critique du goût ». J'ai démontré que ces deux termes ne sont pas synonymes bien que ces deux positions philosophiques partagent et s'appuient sur des présupposés analogues.La distinction entre ces deux manières de penser l'art peut être restituée synthétiquement de la sorte : la saisie systématique des arts du beau en leur diversité et leur subsomption en un concept d'Art unitaire, qui leur attribue des qualités objectives et une valeur de vérité indépendante de toute saisie subjective, relègue, de facto, la question du jugement de goût à l'arrière-plan. La valeur de vérité de l'Art, définie comme la totalité des qualités intrinsèques des oeuvres est, par définition, non tributaire du jugement subjectif. Autrement dit, si les oeuvres d'art présentent des qualités intrinsèques, la question directrice inhérente à la démarche de Baumgarten ne peut donc nullement être celle d'une critique du goût, comme opération subjective {Le. relative au sujet, sans que cela soit forcément synonyme de « relativisme »), mais bien la quête d'un fondement qui soit en mesure de conférer à l'esthétique philosophique, en tant que métaphysique spéciale, sa légitimité.Ce qui distingue sur le plan philosophique le projet d'une métaphysique de l'Art de celui d'une esthétique du goût réside en ceci que le premier est guidé, a priori, par la nécessité de produire un discours valant universellement, indépendant des oeuvres d'art, tandis que le goût, pour s'exercer, implique toujours une oeuvre singulière, concrète, sans laquelle celui-ci ne reste qu'à l'état de potentialité. Le goût a trait au particulier et au contingent, sans être pour autant quelque chose d'aléatoire. En effet, il n'est pas un véritable philosophe s'interrogeant sur cette notion qui n'ait entrevu, d'une manière ou d'une autre, la nécessité de porter le goût à la hauteur d'un jugement, c'est-à-dire lui conférer au moins une règle ou une norme qui puisse le légitimer comme tel et le sauver du relativisme, pris en son sens le plus péjoratif. La délicatesse du goût va même jusqu'à être tenue pour une forme de « connaissance », par laquelle les choses sont appréhendées dans toute leur subtilité. Les différents auteurs évoqués pour cette question (Francis Hutcheson, David Hume, Alexander Gerard, Louis de Jaucourt, Montesquieu, Voltaire, D'Alembert, Denis Diderot, Edmund Burke), soutiennent qu'il y a bien quelque chose comme des « normes » du goût, que celles-ci soient inférées des oeuvres de génie ou qu'elles soient postulées a priori, garanties par une transcendance divine ou par la bonté de la Nature elle-même, ce qui revient, en dernière instance au même puisque le geste est similaire : rechercher dans le suprasensible, dans l'Idée, un fondement stable et identique à soi en mesure de garantir la stabilité de l'expérience du monde phénoménal.La seconde partie de la recherche s'est articulée autour de la question suivante : est-ce que les esthétiques du goût qui mesurent la « valeur » de l'oeuvre d'art à l'aune d'un jugement subjectif et par l'intensité du sentiment échappent aux apories constitutives de la métaphysique de l'Art ?En un sens, une réponse partielle à cette question est déjà contenue dans l'expression « esthétique du goût ». Cette expression ne doit pas être prise au sens d'une discipline ou d'un corpus unifié : la diversité des positions présentées dans cette recherche, bien que non exhaustive, suffit à le démontrer. Mais ce qui est suggéré par cette expression, c'est que ces manières de questionner l'art sont plus proches du sens original du terme aisthêsis que ne l'est la première esthétique philosophique de l'histoire de la philosophie. L'exercice du goût est une activité propre du sentir qui, en même temps, est en rapport direct avec la capacité intellectuelle à discerner les choses et à un juger avec finesse et justesse.Avec le goût esthétique s'invente une espèce de « sens sans organe » dont la teneur ontologique est hybride, mais dont le nom est identique à celui des cinq sens qui procurent la jouissance sensible la plus immédiate et la moins raisonnable qui soit. Par la reconnaissance de l'existence d'un goût « juste » et « vrai », ou à défaut, au moins de l'existence d'une « norme » indiscutable de celui-ci, c'est-à-dire de la possibilité de formuler un jugement de goût une tentative inédite de spîritualisation de la sensibilité a lieu.Par conséquent, il est loin d'être évident que ce que j'ai appelé les esthétiques du goût échappent à un autre aspect aporétique de la métaphysique de l'Art, à savoir : passer à côté du caractère singulier de telle ou telle oeuvre afin d'en dégager les traits universels qui permettent au discours de s'étayer. Dans une moindre mesure, cela est même le cas dans les Salons de Diderot où, trop souvent, le tableau sert de prétexte à l'élaboration d'un discours brillant.Par contre, tout l'intérêt de la question du goût réside en ceci qu'elle présente, de façon particulièrement aiguë, les limites proprement métaphysiques dont l'esthétique, à titre de discipline philosophique, se fait la légataire et tente à sa manière d'y remédier par une extension inédite du concept de vérité et sa caractérisai ion en termes de vérité « esthéticologique » au paragraphe 427 de Y Esthétique. Cela dit, le fait même que dans l'empirisme la sensibilité s'oppose, une fois de plus, à l'intellect comme source de la naissance des idées - même si c'est dans la perspective d'une réhabilitation de la sensibilité -, indique que l'horizon même de questionnement demeure inchangé. Si le goût a pu enfin acquérir ses lettres de noblesse philosophique, c'est parce qu'il a été ramené, plus ou moins explicitement, du côté de la raison. Le jugement portant sur les arts et, de manière plus générale, sur tout ce qui est affaire de goût ne saurait se limiter au sentiment de plaisir immédiat. Le vécu personnel doit se transcender en vertu de critères qui non seulement permettent de dépasser le relativisme solipsiste, mais aussi de donner forme à l'expérience vécue afin qu'elle manifeste à chaque fois, et de façon singulière, une portée universelle.Le goût, tel qu'il devient un topos des discours sur l'art au 18e siècle, peut, à mon sens, être interprété comme l'équivalent de la glande pinéale dans la physiologie cartésienne : l'invention d'un « je ne sais quoi » situé on ne sait où, sorte d'Hermès qui assure la communication entre l'âme et le corps et sert l'intermédiaire entre l'intellect et la sensibilité. L'expérience décrite dans l'exercice du goût implique de facto une dimension par définition occultée par la métaphysique de l'Art : le désir. Pour goûter, il faut désirer et accepter d'être rempli par l'objet de goût. Dans l'exercice du goût, le corps est en jeu autant que l'intellect, il s'agit d'une expérience totale dans laquelle aucune mise à distance théorétique n'est, en un premier temps, à même de nous prémunir de la violence des passions qui nous affectent. L'ambiguïté de cette notion réside précisément dans son statut ontologiquement problématique. Mais cette incertitude est féconde puisqu'elle met en exergue le caractère problématique de la distinction entre corps et esprit. Dans la notion de goût est contenue l'idée que le corps pense aussi et que, par voie de conséquence, la sensibilité n'est pas dépourvue de dimension spirituelle. Reste que formuler les choses de la sorte revient à rejouer, en quelque sorte, l'antique diaphorâ platonicienne et à convoquer, une fois de plus, les grandes oppositions métaphysiques telles que corps et âme, sensible et intelligible, matière et forme.La troisième partie est entièrement consacrée à Shaftesbury qui anticipe le statut ontologiquement fort de l'oeuvre d'art (tel qu'il sera thématisé par Baumgarten) et l'allie à une critique du goût. Cet auteur peut être considéré comme une forme d'exception qui confirme la règle puisque sa métaphysique de l'Art laisse une place prépondérante à une critique du goût. Mais le cumul de ces deux caractéristiques opposées un peu schématiquement pour les besoins de la démonstration n'invalide pas l'hypothèse de départ qui consiste à dire que la saisie philosophique de la question du goût et l'invention conjointe de l'esthétique au 18e siècle sont deux tentatives de trouver une issue au problème du dualisme des substances.Cette recherche doit être prise comme une forme de propédeutique à la fois absolument nécessaire et parfaitement insuffisante. Après Baumgarten et le siècle du goût philosophique, les propositions de dépassement des apories constitutives d'une tradition qui pense l'art à partir de couples d'oppositions métaphysiques tels qu'âme et corps, forme et matière, ainsi que leurs traductions dans les arts visuels (dessin et couleur ou encore figuration et abstraction), n'ont pas manqué. Il aurait fallu in fine s'effacer pour laisser la place aux plasticiens eux-mêmes, mais aussi aux poètes, non plus dans l'horizon de Y ut pictura, mais lorsqu'ils expriment, sans verser dans l'analyse conceptuelle, leurs rencontres avec telle ou telle oeuvre (je pense à Baudelaire lorsqu'il évoque Constantin Guys, à Charles Ferdinand Ramuz lorsqu'il rend hommage à Cézanne ou encore à Pascal Quignard lorsqu'il raconte les fresques de la maison des Dioscures à Pompéi, pour ne citer que trois noms qui affleurent immédiatement à ma mémoire tant leur souvenir est vivace et leur exemple un modèle). Et puis il s'agit, malgré tout, de ne pas renoncer pour autant au discours esthétique, c'est- à-dire à la philosophie, mais de réinterroger les catégories dont nous sommes les légataires et de penser avec et au-delà des limites qu'elles nous assignent. Mais cela ferait l'objet d'un autre ouvrage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La production endogène à long terme de chaleur, même au repos, est une adaptation que l'on retrouve chez les animaux à sang chaud (les oiseaux et les mammifères). Cette production de chaleur a comme but le maintien d'une température constante du corps indépendamment de la température extérieure. A cette fin, les mammifères ont développé une forme de tissu spécialisé nommé tissu adipeux brun (BAT). Ce tissu est responsable de la conversion de nourriture en chaleur, procédé appelé thermogenèse sans frisson (NST = non-shivering thermogenesis). Durant ce procédé la uncoupling protein 1 (UCP1) convertit, au sein des mitochondries, la nourriture en chaleur au lieu de produire de l'ATP, molécule utilisée comme énergie cellulaire. On suppose que cette inefficacité de la conversion de la nourriture en ATP dans le BAT influence l'homéostasie de l'énergie, l'allocation des ressources ainsi que la régulation de processus gourmant en énergie comme la croissance et la reproduction. Afin de maintenir une température du corps constante, les mammifères doivent ajuster leur NST en fonction de la température ambiante. La NST devrait être donc plus importante que la croissance et la reproduction durant l'hiver que lors l'été/à haute altitude qu'à basse altitude. En effet, plusieurs études ont déjà démontré la dépendance de la NST aux divers paramètres environnementaux. Par contre, l'héritabilité de la NST ainsi que sa relation avec d'autres traits de caractère, ne sont que très peu connus, ceci malgré l'importance d'une telle information afin de pouvoir comprendre son potentiel évolutif. L'étude de l'importance évolutive et écologique sur la NST chez les campagnols des champs (Microtus arvalis) fut donc le but cette thèse de doctorat. Grâce aux informations collectées sur 4 générations de campagnols (chapitre 1), une dépendance saisonnière et journalière de la NST a été démontrée: elle augmente lors des périodes froides et diminue lors de la lactation. On a démontré que bien qu'étant plastique, la variation de la NST a une composante génétique significative. Elle est corrélée avec le taux d'activité métabolique au repos indiquant des contraintes intrinsèques. A l'aide d'une expérience de jardin commune, on a pu démontrer dans le chapitre 2 que les campagnols habitant en altitude ont une capacité génétique de thermogenèse sans frisson plus haute que celles de basse altitude. Ils produisent des portées plus petites et leur descendance grandit moins vite, surtout à partir du 10ème jour ce qui coïncide avec le début de la production de chaleur endogène. En choisissant artificiellement des campagnols avec une NST faible ou grande, on a pu démontrer une relation entre la NST et la développement de la masse corporelle. Les campagnols avec une haute NST grandissent plus lentement et sont plus légères à l'âge adulte que celles ayant une basse NST. A l'aide d'un croisement interligne entre les campagnols sélectionnés (avec basse et haute NST), on a pu montrer dans le chapitre 3 des effets « parent-of-origin >> du développement massique de la descendance, indiquant une empreinte génétique parentale. Cela veut dire que l'expression d'un allele dépend de l'origine parentale. De plus, des effets « parent-of-origin » des taux de base de norépinephrine et d'irisine ont pu être trouvés. Ces hormones sont connues pour influencer non seulement la TSF mais aussi d'autres caractéristiques. Ces influences ouvrent la voie à de nouvelles études sur la relation entre la TSF et l'histoire de vie. Dans le chapitre 4 on a démontré des effets à long terme de l'allocation des ressources en manipulant la taille des portées qui ont abouti à des différences dans l'investissement dans la reproduction et de la croissance de la descendance à la fois dans le cas de la reproduction manipulé et aussi dans le non - manipulée entre les femelles avec portées agrandies et réduites. Ensemble, ces résultats mettent en évidence le rôle central de la NST dans l'allocation des ressources sur la base d'un compromis entre le maintien et la croissance et ainsi transforme l'histoire de vie des mammifères. Ces études montrent comment les mammifères peuvent répondre rapidement à court et à long terme (c'est-à-dire par des réponses génétiques ou plastiques) à un changement rapide du climat. On montre aussi qu'il y a probablement une corrélation entre l'histoire de vie et des changements du comportement. Finalement mes résultats ont montré un lien étroit entre la NST et la croissance et les dimensions du corps. Ces résultats indiquent que le tissu adipeux brun et la NST pourraient être une cible thérapeutique intéressante pour traiter l'obésité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ami, ou ennemi, le soleil ? Qui n'a jamais maudit un petit excès de bain de soleil sanctionné par une peau brûlée ? Mais en hiver, quand il se fait rare, l'huile de foie de morue est la panacée que prescrit la sagesse de nos grands-mères pour remplacer la vitamine D qu'en temps normal il nous aide à synthétiser. Pour pouvoir faire le point sur les dangers et les bénéfices du rayonnement solaire, il faut connaître son intensité et en particulier celle du rayonnement ultraviolet (UV) qui a une forte influence sur la santé.Durant ces dernières décades, une forte augmentation des cancers de la peau a été constatée dans les pays développés. La communauté médicale suppose que cette augmentation est liée à une plus forte exposition aux UV, qui serait elle-même due à des changements d'habitudes de la population (engouement pour les loisirs en plein air, pour les vacances sous les tropiques, popularité du bronzage, etc.) et éventuellement à un accroissement du rayonnement UV. [Auteurs]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A criminal investigation requires to search and to interpret vestiges of a criminal act that happened in a past time. The forensic investigator arises in this context as a critical reader of the investigation scene, in search of physical traces that should enable her to tell a story of the offence/crime which allegedly occurred. The challenge of any investigator is to detect and recognise relevant physical traces in order to provide forensic clues for investigation and intelligence purposes. Inspired by this obser- vation, the current research focuses on the following questions : What is a relevant physical trace? And, how does the forensic investigator know she is facing one ? The interest of such questions is to provide a definition of a dimension often used in forensic science but never studied in its implications and operations. This doctoral research investigates scientific paths that are not often explored in forensic science, by using semiotic and sociological tools combined with statistical data analysis. The results are shown following a semiotic path, strongly influenced by Peir- ce's studies, and a second track, called empirical, where investigations data were analysed and forensic investigators interviewed about their work practices in the field. By the semiotic track, a macroscopic view is given of a signification process running from the discove- red physical trace at the scene to what is evaluated as being relevant for the investigator. The physical trace is perceived in the form of several signs, whose meaning is culturally codified. The reasoning should consist of three main steps : 1- What kind of source does the discovered physical trace refer to ? 2- What cause/activity is at the origin of this source in the specific context of the case ? 3- What story can be told from these observations ? The stage 3 requires to reason in creating hypotheses that should explain the presence of the discovered trace coming from an activity ; the specific activity that is related to the investigated case. To validate this assumption, it would depend on their ability to respond to a rule of relevancy. The last step is the symbolisation of the relevancy. The rule would consist of two points : the recognition of the factual/circumstantial relevancy (Is the link between the trace and the case recognised with the formulated hypothesis ? ) and appropriate relevancy (What investment is required to collect and analyse the discovered trace considering the expected outcome at the investigation/intelligence level?). This process of meaning is based on observations and a conjectural reasoning subject to many influences. In this study, relevancy in forensic science is presented as a conventional dimension that is symbolised and conditioned by the context, the forensic investigator's practice and her workplace environment (culture of the place). In short, the current research states relevancy results of the interactions between parameters from situational, structural (or organisational) and individual orders. The detection, collection and analysis of relevant physical traces at scenes depends on the knowledge and culture mastered by the forensic investigator. In the study of the relation relevant trace-forensic investigator, this research introduces the KEE model as a conceptual map that illustrates three major areas of forensic knowledge and culture acquisition, involved in the research and evaluation of the relevant physical trace. Through the analysis of the investigation data and interviews, the relationship between those three parameters and the relevancy was highlighted. K, for knowing, embodies a rela- tionship to the immediate knowledge allowing to give an overview of the reality at a specific moment ; an important point since relevancy is signified in a context. E, for education, is considered through its relationship with relevancy via a culture that tends to become institutionalised ; it represents the theoretical knowledge. As for the parameter E, for experience, it exists in its relation to relevancy in the adjustments of the strategies of intervention (i.e a practical knowledge) of each practitioner having modulated her work in the light of success and setbacks case after case. The two E parameters constitute the library resources for the semiotic recognition process and the K parameter ensures the contextualisation required to set up the reasoning and to formulate explanatory hypotheses for the discovered physical traces, questioned in their relevancy. This research demonstrates that the relevancy is not absolute. It is temporal and contextual; it is a conventional and relative dimension that must be discussed. This is where the whole issue of the meaning of what is relevant to each stakeholder of the investigation process rests. By proposing a step by step approach to the meaning process from the physical trace to the forensic clue, this study aims to provide a more advanced understanding of the reasoning and its operation, in order to streng- then forensic investigators' training. This doctoral research presents a set of tools critical to both pedagogical and practical aspects for crime scene management while identifying key-influences with individual, structural and situational dimensions. - Une enquête criminelle consiste à rechercher et à faire parler les vestiges d'un acte incriminé passé. L'investigateur forensique se pose dans ce cadre comme un lecteur critique des lieux à la recherche de traces devant lui permettre de former son récit, soit l'histoire du délit/crime censé s'être produit. Le challenge de tout investigateur est de pouvoir détecter et reconnaître les traces dites pertinentes pour fournir des indices forensiques à buts d'enquête et de renseignement. Inspirée par un tel constat, la présente recherche pose au coeur de ses réflexions les questions suivantes : Qu'est-ce qu'une trace pertinente ? Et, comment fait le forensicien pour déterminer qu'il y fait face ? L'intérêt de tels questionnements se comprend dans la volonté de définir une dimension souvent utili- sée en science forensique, mais encore jamais étudiée dans ses implications et fonctionnements. Cette recherche se lance dans des voies d'étude encore peu explorées en usant d'outils sémiotiques et des pratiques d'enquêtes sociologiques combinés à des traitements statistiques de données. Les résultats sont représentés en suivant une piste sémiotique fortement influencée par les écrits de Peirce et une seconde piste dite empirique où des données d'interventions ont été analysées et des investigateurs forensiques interviewés sur leurs pratiques de travail sur le terrain. Par la piste sémiotique, une vision macroscopique du processus de signification de la trace en élément pertinent est représentée. La trace est perçue sous la forme de plusieurs signes dont la signification est codifiée culturellement. Le raisonnement se formaliserait en trois principales étapes : 1- Quel type de source évoque la trace détectée? 2- Quelle cause/activité est à l'origine de cette source dans le contexte précis du cas ? 3- Quelle histoire peut être racontée à partir de ces observations ? Cette dernière étape consiste à raisonner en créant des hypothèses devant expliquer la présence de la trace détectée suite à une activité posée comme étant en lien avec le cas investigué. Pour valider ces hypothèses, cela dépendrait de leur capacité à répondre à une règle, celle de la pertinence. Cette dernière étape consiste en la symbolisation de la pertinence. La règle se composerait de deux points : la reconnaissance de la pertinence factuelle (le lien entre la trace et le cas est-il reconnu dans l'hypothèse fournie?) et la pertinence appropriée (quel est l'investissement à fournir dans la collecte et l'exploitation de la trace pour le bénéfice attendu au niveau de l'investigation/renseignement?). Tout ce processus de signification se base sur des observations et un raisonnement conjectural soumis à de nombreuses influences. Dans cette étude, la pertinence en science forensique se formalise sous les traits d'une dimension conventionnelle, symbolisée, conditionnée par le contexte, la pratique de l'investigateur forensique et la culture du milieu ; en somme cette recherche avance que la pertinence est le fruit d'une interaction entre des paramètres d'ordre situationnel, structurel (ou organisationnel) et individuel. Garantir la détection, la collecte et l'exploitation des traces pertinentes sur les lieux dépend de la connaissance et d'une culture maîtrisées par le forensicien. Dans l'étude du rapport trace pertinente-investigateur forensique, la présente recherche pose le modèle SFE comme une carte conceptuelle illustrant trois grands axes d'acquisition de la connaissance et de la culture forensiques intervenant dans la recherche et l'évaluation de la trace pertinente. Par l'analyse des données d'in- terventions et des entretiens, le rapport entre ces trois paramètres et la pertinence a été mis en évidence. S, pour savoir, incarne un rapport à la connaissance immédiate pour se faire une représentation d'une réalité à un instant donné, un point important pour une pertinence qui se comprend dans un contexte. F, pour formation, se conçoit dans son rapport à la pertinence via cette culture qui tend à s'institutionnaliser (soit une connaissance théorique). Quant au paramètre E, pour expérience, il se comprend dans son rapport à la pertinence dans cet ajustement des stratégies d'intervention (soit une connaissance pratique) de chaque praticien ayant modulé leur travail au regard des succès et échecs enregistrés cas après cas. F et E formeraient la bibliothèque de ressources permettant le processus de reconnaissance sémiotique et S assurerait la contextualisation nécessaire pour poser le raisonnement et formuler les hypothèses explicatives pour les traces détectées et questionnées dans leur pertinence. Ce travail démontre que la pertinence n'est pas absolue. Elle est temporelle et contextuelle, c'est une dimension conventionnelle relative et interprétée qui se doit d'être discutée. C'est là que repose toute la problématique de la signification de ce qui est pertinent pour chaque participant du processus d'investigation. En proposant une lecture par étapes du processus de signification depuis la trace à l'indice, l'étude vise à offrir une compréhension plus poussée du raisonnement et de son fonctionnement pour renforcer la formation des intervenants forensiques. Cette recherche présente ainsi un ensemble d'outils critiques à portée tant pédagogiques que pratiques pour la gestion des lieux tout en identifiant des influences-clé jouées par des dimensions individuelles, structurelles et situationnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Impulsée par des élus de l'UDC pour contourner des décisions politiques et judiciaires prises au niveau local, puis national, l'initiative populaire acceptée en 2009 visant l'interdiction de construire des minarets a réactivé la stigmatisation des musulmans établis en Suisse, ainsi qu'un ensemble de controverses opposant systématiquement, dans une configuration institutionnelle particulière, la démocratie directe aux droits fondamentaux, la « volonté populaire » au « pouvoir des juges », nationaux et internationaux. Polysémique, le concept de judiciarisation est appréhendé ici dans une perspective processuelle et relationnelle, non pas comme transfert vers l'arène judiciaire de questions politiques touchant la régulation publique du religieux, mais sous l'angle de la juridicisation de la controverse suscitée par l'initiative populaire que produit l'anticipation des décisions de justice dans les échanges politiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les médecins de premiers recours (MPR) sont parmi les spécialistes les plus souvent confrontés aux problèmes de santé liés au travail. Les atteintes de l'appareil locomoteur (rachis ou extrémités) et les problèmes psychiques sont les principales pathologies liées au travail rencontrées par leur patient. Dans ce contexte, il est essentiel pour le MPR de pouvoir identifier le lien entre l'atteinte à la santé et le contexte professionnel afin de conduire une prise en charge adaptée. Cet article aborde, par deux vignettes cliniques, les aspects sémiologiques et thérapeutiques du syndrome d'épuisement professionnel (burnout) et des troubles musculosquelettiques du membre supérieur. Il propose des repères au MPR pour orienter sa pratique dans une approche multidimensionnelle tournée aussi bien vers le patient que sur son environnement professionnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le terme complexe d'épistémologie médicale peut être explicité en définissant la médecine comme construite sur trois pôles fondamentaux et la relation qui lie ces trois pôles: le projet fondateur, l'objet du projet et les outils servant au projet. Ces trois pôles forment l'épistémologie médicale. Le projet est celui de soigner, ou encore de défendre contre la maladie: il s'agit d'agir sur le phénomène pathologique afin qu'il disparaisse. Or pour cela, il faut d'abord rendre ce phénomène visible. En d'autres termes, la construction du concept même de pathologie est indispensable au projet thérapeutique qui a besoin de faire apparaître son objet afin de pouvoir mieux le faire disparaître. L'objet dont on parle, c'est la maladie. Or, cet objet conceptuel doit être élaboré à l'aide d'outils conceptuels permettant de construire une représentation du modèle du pathologique. Ces outils sont toutes les théories conceptuelles de la maladie qui ont pu exister à travers les siècles et qui sont des application au domaine médical de différentes conceptualisations du monde, propres à chaque époque, telles que la philosophie ou la science par exemple. Le projet thérapeutique -­‐ faire disparaître le phénomène pathologique - exige donc tout d'abord l'existence de son objet -­‐ le concept de la maladie. Par la suite, il faut élaborer cet objet en un modèle de représentation de la maladie, modèle qui fournit un substrat sur lequel on peut alors appliquer des outils actifs qui, à leur tour, peuvent agir sur la maladie et tenter donc de faire disparaître le phénomène pathologique. Ces outils actifs, issus des outils conceptuels, sont en fait les techniques appliquées à la maladie. Nous distinguerons encore une troisième catégorie d'outils, faisant le lien entre les outils conceptuels et les outils actifs en rendant traductible par le corps le concept du phénomène pathologique: ce sont les outils sémiologiques. L'étude de l'épistémologie peut être définie comme l'étude de la production, de la construction et de la validation du savoir. Elle s'intéresse à comprendre comment est produite la connaissance scientifique. Or, cette production est construite de l'interaction entre les divers éléments qui définissent l'originalité des différents domaines de la science et que nous avons réunis dans les trois catégories du projet, de l'objet et des outils. Nous retrouvons ici les trois pôles fondateurs de la médecine, que nous avons définis plus haut en tant qu'objets d'étude de l'épistémologie médicale. Dans la première partie, théorique, de ce travail, qui est basée sur l'analyse de la littérature, nous nous intéresserons aux changements chronologiques de leur nature et de leurs relations dans le but de comprendre comment l'épistémologie médicale, en proposant une interprétation du phénomène pathologique, participe à la construction historique, culturelle et sociale de la maladie. La deuxième partie, pratique, est constituée de l'analyse d'interviews de médecins FMH et s'interroge sur la façon dont le médecin intègre, gère, interprète et applique l'héritage constamment en mouvement du savoir médical dans sa pratique de la médecine. En d'autres termes, comment du mélange d'un savoir médical historiquement transmis et du savoir acquis de son expérience, le médecin construit son propre socle épistémologique.