337 resultados para Outils diagnostiques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME EN FRANÇAIS BUTS. Étudier les relations entre le diabète gestationnel (GDM) et le syndrome métabolique (MS), comme la résistance à l'insuline est une des caractéristiques des 'deux conditions. Analyser le dépistage du diabète dans le post-partum pour identifier les facteurs de risque associés au développement d'un diabète de type 2 ultérieur. MÉTHODES. Étude rétrospective de toutes les grossesses uniques diagnostiquées avec un diabète gestationnel à l'hôpital universitaire de Lausanne, pendant une durée de trois ans. La présence d'une obésité, d'une hypertension ou d'une dyslipidémie avant la grossesse définissent les composants du syndrome métabolique. RÉSULTATS. Sur 5788 grossesses, 159 patientes (2.7%) présentaient un diabète gestationnel. Des composants du syndrome métabolique étaient présents avant la grossesse chez 26% des patientes (n=37/144) : 84% (n=31/37) étaient obèses, 38% (n=14/37) présentaient une hypertension et 22% (n=8/37) une dyslipidémie. Le développement d'une hypertension gravidique était associé à l'obésité (OR=3.2, p=0.02) et à la dyslipidémie (OR=5.4, p=0.002). Septante-quatre patientes (47%) sont revenues pour l'HGPO dans le post-partum. Celle-ci était anormale chez 20 femmes (27%): 11 % (n=8) présentaient un diabète de type 2 et 16% (n=12) avaient une intolérance au glucose. Les facteurs de risque indépendants associés à une anomalie de la tolérance au glucose dans le post-partum étaient d'avoir plus de 2 valeurs anormales au test diagnostique durant la grossesse et présenter des composants du syndrome métabolique (OR=5.2, CI 1.8-23.2 et OR=5.3, CI 1.3-22.2). CONCLUSIONS. Dans un quart des grossesses avec un diabète gestationnel, des anomalies métaboliques précèdent l'apparition de l'intolérance au glucose. Ces patientes présentent un haut risque de développer un syndrome métabolique et un diabète de type 2 ultérieurement. Là où le dépistage du diabète gestationnel n'est pas systématique, les praticiens devraient être avertis de ces risques métaboliques chez les patiente se présentant avec une obésité, une hypertension ou une dyslipidémie, afin de mieux les diagnostiquer et surtout de mieux les suivre et traiter après leur grossesse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RésuméLa H+-ATPase vacuolaire (V-ATPase) est un complexe enzymatique composé de deux secteurs multimériques (VQ et Vi) dont l'association dans la cellule est réversible. Le secteur intramembranaire de la V-ATPase (V0) interagit physiquement avec des protéines SNARE et stimule la fusion homotypique des vacuoles de la levure (lysosomes), la sécrétion de neurotransmetteurs et d'insuline, la fusion entre phagosome et lysosome ainsi que la sécrétion des corps multivésiculaires par un mécanisme inconnu. Dans cette étude j'ai identifié des résidues d'acides amines situés dans des sous-unités de V0 impliqués dans le mécanisme de fusion des vacuoles mais non essentiels pour l'acidification vacuolaire par la V-ATPase. j'ai utilisé un protocole de mutagenèse aléatoire pour produire des libraries de mutants des sous unités de V0. Ces libraries ont été analysées in vivo afin d'identifier des alleles qui permettent la translocation des protons mais produisent une vacuole fragmentée, phénotype indiquant un défaut dans la fusion membranaire. Les vacuoles des mutants ont été isolées et caractéisées en utilisant une grande variété d'outils biochimiques pour déterminer précisément l'impact des différentes mutations sur l'accomplissement d'événements clés du processus de fusion.J'ai identifié des mutations associées à des défauts spécifiques de la fusion dans plusieurs sous-unités de V0. Dans les protéolipides c, c' et c" ces mutations se concentrent dans la partie cytosolique des domaines transmembranaires. Elles renforcent les associations entre les secteurs de la V-ATPase et entre V0 et les SNAREs. Dans la fusion vacuolaire ces mutations permettent la formation de complexes SNAREs en trans mais inhibent l'induction de la fusion. Par contre, la deletion de la sous- unité d influence les étapes de la fusion qui précèdent la formation des complexes trans-SNAREs. Mes résultats démontrent que V0 joue des rôles différents dans plusieurs étapes de la fusion et que ces fonctions sont liées au système des SNAREs. Ils différencient génétiquement les activités de V0 dans la translocation des protons et dans la fusion et identifient de nombreux résidus importants pour la fusion vacuolaire. De plus, compte tenu de la grande conservation de sequence des protéolipides chez les eukaryotes les mutations identifiées dans cette l'étude apportent de nouvelles informations pour analyser la fonction de V0 dans des organismes multicellulaires pour lesquels la function catalytique de la V-ATPase est essentielle à la survie.Résumé pour le large publicLe transport de protéines et de membranes est important pour maintenir la fonction des organelles dans la cellule. Il s'excerce au niveau des vesicules. La fusion membranaire est un processus élémentaire de ce transport. Pour fusionner deux membranes, il faut la coordination de deux activités: le rapprochement et la déstabiiization des deux membranes. La collaboration d'un ensemble de proteins conservés chez les eukaryotes, est nécessaire pour catalyser ces activités. Les proteins SNAREs sont les protagonistes principaux dans la fusion membranaire. Néanmoins, d'autres protéines, comme des Rab-GTPases et des chaperonnes, sont nécessaires pour permettre ce phénomène de fusion. Toutes ces protéines sont temporairement associées avec les SNAREs et leur fonction dans la fusion membranaire est souvent directement liée à leur activité dans cette association. Le secteur transmembranaire V0 de la V-ATPase rnteragit avec des SNAREs et est essentiel pour la fusion dans une variété de systèmes modèles comme la mouche, la souris et la levure. Le secteur V0 est composé de six protéines différentes. Avec te secteur Va, qui réside dans le cytosol, il forme la V-ATPase dont la fonction principale est l'acidification des organelles par translocation des protons à travers la membrane par un mécanisme ressemblant à celui d'une pompe. V0joue un role dans la fusion membranaire, indépendamment de son activité catalytique liée au pompage des protons, et ce rôle est encore largement méconnu à ce jour. Le but de ma thèse était de mieux comprendre l'implication de V0 dans ce contexte.Pour étudier des activités liées à la V-ATPase, la levure est un excellent modèle d'étude car elle survie à une inactivation de l'enzyme alors que le meme traitement serait léthal pour des organismes multicellulaires. Dans ma thèse j'ai utilisé la fusion homotypique de la vacuole de levure comme système modèle pour étudier le rôle de V0 dans la fusion. J'ai muté des gènes qui encodent des sous- unités de V0 et les ai introduit dans des souches privées des gènes respectifs. Dans les librairies de souches portant différentes versions de ces gènes j'ai cherché des clones exprimant une V-ATPase intacte et fonctionnelle mais qui possèdent une vacuole fragmentée. Le plus souvent, une vacuole fragmentée indique un défaut dans la fusion vacuolaire. Dans les trois types de protéolipides qui composent un cylindre dans le secteur V0, j'ai trouvé des clones avec une vacuole fragmentée. Après avoir isolé les mutations responsable de ce type de morphologie vacuolaire, j'ai isolé les vacuoles de ces clones pour étudier leur activités dans différentes étapes de la fusion vacuolaire. Les résultats de ces analyses mettent en évidence une implication de V0 dans plusieurs étapes de la fusion vacuolaire. Certaines mutations sélectionnées dans mon étude inhibent une étape précoce de la fusion qui inclue la dissociation des complexes SNARE, tandis que d'autres mutations inhibent une étape tardive du processus de fusion qui inclue la transmission d'une force disruptive dans la membrane.AbstractThe membrane-integral V0 sector of the vacuolar H+-ATPase (V-ATPase) interacts with SNARE proteins. V0 stimulates fusion between yeast vacuoles (lysosomes) (Peters et al., 2001b), secretion of neurotransmitters and insulin (Hiesinger et al., 2005a, Sun-Wada et al., 2006a), phagosome-lysosome fusion (Peri and Nusslein-Volhard, 2008) and secretion of multivesicular bodies (Liegeois et al., 2006b) by a yet unknown mechanism. In my thesis, I identified sites in V0 subunits that are involved in yeast vacuole fusion but dispensable for the proton pumping by the V-ATPase. I randomly mutagenized V0 subunits and screened in vivo for mutant alleles that support proton pumping but cause fragmented vacuoles, a phenotype indicative of a fusion defect. Mutant vacuoles were isolated and analyzed in a cell-free system, allowing assay of key events in fusion, such as trans-SNARE pairing, lipid transition and fusion pore opening (Reese et al., 2005b).Mutants with selective fusion defects were found in several V0 subunits. In the proteolipids c, c' and c", critical mutations are concentated in the cytosolic half of the transmembrane domains. These mutations rendered the V-ATPase holoenzyme more stable and modulated V0-SNARE associations. In vacuole fusion critical proteolipid mutations permitted trans-SNARE pairing but impeded the induction of lipid flow between the membranes. Deletion of subunit d, by contrast, influenced early stages of fusion that precede trans-SNARE pairing. My results show that V0 acts in several steps of the fusion process and that its function is intimately connected to the SNARE system. They genetically separate the proton pump and fusion activities of V0 and identify numerous critical residues. Given the high sequence conservation of proteolipids in eukaryotic life, the identified mutations may be helpful in analyzing the fusion function of V0 also in mammalian cells, where V- ATPase pump function is essential for survival.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Loin d'être une simple information, la psychoéducation comporte trois dimensions : pédagogique, psychologique et comportementale. Elle doit toujours s'adapter aux besoins particuliers d'un patient et à l'évolution de sa maladie. Pour cela, le modèle du rétablissement peut servir de guide pour les interventions psychoéducatives. Les auteurs décrivent les outils disponibles à chaque étape de ce processus : le moratoire, la conscience, la préparation, la reconstruction, la croissance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En pratique courante, les événements thrombotiques ne sont pas rares. Dans le suivi des grossesses, les gynécologues ont souvent affaire à des pertes foetles chez leurs patientes. Jusqu'à quel point ces événements peuvent-ils être considérés comme "banals" ? Quand et sur quels critères doit-on considérer la possibilité d'un syndrome des antiphospholipides ? Des efforts ont été réalisés ces dernières années en vue de mieux codifier ce syndrome, tant sur le plan du laboratoire, que clinique. En vue d'uniformiser ces éléments, une première conférence de consensus a eu lieu en 1999 à Sapporo, avec mise à jour en 2004 à Sydney. Ces quelques lignes font le point sur les éléments nouveaux liés à la classification actuelle et sur les éléments diagnostiques en découlant, en vue de retenir le diagnostic de syndrome des antiphospholipides de manière rigoureuse, et d'initier le traitement adéquat dans les différentes situations liées à ce syndrome. In current practice, the occurrence of thrombosis--venous or arterial--is not rare. Moreover, during the follow-up of pregnancies, gynecologists often have to deal with fetal losses of their patients. Up to which point can these events be considered as "ordinary"? When and on which criteria can we consider an antiphospholipid syndrome? Efforts have been put these last years to better codify the diagnosis of this syndrome, so much on the laboratory side as on the clinical side. With a view to standardize these elements, a first consensus conference took place in 1999 in Sapporo, with an update in 2004 in Sydney, that has recently been published. The goal of these lines is to focus on new elements connected to the actual classification and on the resulting diagnosis elements, with the aim of obtaining a diagnosis of antiphospholipid syndrome in a rigorous way, and to initiate the appropriate treatment in different situations linked to this syndrome

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RAPPORT DE SYNTHESE :Cette thèse a pour but de démontrer que les protéines sanguines sont sensibles à leur micro- environnement redox et que les outils protéomiques permettent pour une part de caractériser les effets de ce micro-environnement au niveau moléculaire. Elle est divisée en trois parties, les deux premières sous forme d'articles de revue publiés et la troisième sous forme d'un travail de recherche mené au Centre de Transfusion Sanguine de Lausanne en collaboration avec la PAF (Protein Analysis Facility) de l'UNIL.L'article « Plasma/serum proteomics : preanalytical issues » publié dans Expert Review of Proteomics en 2007 explique comment la protéine porte l'empreinte de la phase pré¬analytique. La technique d'électrophorèse bi-dimensionnelle « différentielle » permet de simplifier cette phase en soumettant tous les échantillons analysés aux mêmes manipulations, ramenant ainsi les variables pré-analytiques aux plus élémentaires d'entre elles. Dans l'article « Oxidation of proteins : basic principles and perspectives for blood proteomics » publié dans Proteomics Clinical Applications en 2008, il est question de l'oxydation comme réaction chimique à l'origine de lésions, protéiques. Celles-ci peuvent donner lieu à des artefacts d'analyse protéomique et rendre l'identification de peptides confondante. Elles peuvent par ailleurs être chimiquement instables et s'associer à d'autres composés contenus dans l'échantillon.Le travail de recherche décrit l'étude protéomique des modifications oxydatives au niveau du fibrinogène oxydé in vitro. Les résultats de cette étude indiquent que les conditions de conservation de plasma destiné à la transfusion peuvent potentiellement altérer la structure et la fonction des protéines contenues dans ce produit sanguin et que ce phénomène est pour une part oxydatif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Messages à retenir: La scanographie hélicoïdale à collimation fine sur l'ensemble du thorax est l'examen de référence pour le diagnostic et l'évaluation de la distributiontopographique et de l'étendue des bronchectasies.Les reformations multiplanaires et les techniques de projection d'intensité maximum et minimum améliorent les performances diagnostiques et permettent unemeilleure détection des lésions associées des petites voies aériennes (bronchiolite infectieuse, bronchiolite oblitérative).Chez les patients atteints de bronchectasies, le degré d'épaississement pariétal bronchique ainsi que l'étendue des zones hypodenses hypoperfusées traduisantdes lésions d'obstruction bronchiolaire sont parfaitement corrélés à la sévérité du retentissement fonctionnel de la maladie .La scanographie est peu fiable pour reconnaître le diagnostic étiologique des bronchectasies. Résumé: La scanographie hélicoïdale multidétecteur à collimation fine sur l'ensemble du thorax au cours d'une seule et même apnée inspiratoire est supérieure auxexamens en coupes fines incrémentales haute résolution avec un intervalle de coupes de 10 mm, pour le diagnostic et l'évaluation de l'étendue desbronchectasies. L'usage des reformations multiplanaires améliore la détection des bronchectasies, augmente la reproductibilité des radiologues pour lediagnostic des bronchectasies ainsi que leur niveau de confiance pour apprécier la distribution lésionnelle . L'examen scanographique évalue le nombre et ladistribution des impactions mucoïdes dans des bronches dilatées et le retentissement de l'atteinte bronchique sur les voies aériennes distales et le parenchymepulmonaire. La recherche d'atteinte associée des petites voies aériennes est systématique : détection des foyers de bronchiolite infectieuse et évaluation de l'étendue des zones hypodenses, hypoperfusées, avec piégeage, qui reflètent les lésions de bronchiolite oblitérative . Ces dernières sont corrélées au degré desévérité de l'obstruction fonctionnelle. La scanographie reste peu fiable pour le diagnostic étiologique des bronchectasies. Inversement, certains mécanismessont facilement identifiés, tels que les bronchectasies post-obstructives et les bronchectasies par traction des fibroses pulmonaires .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME Les évidences montrant que les changements globaux affectent la biodiversité s'accumulent. Les facteurs les plus influant dans ce processus sont les changements et destructions d'habitat, l'expansion des espèces envahissantes et l'impact des changements climatiques. Une évaluation pertinente de la réponse des espèces face à ces changements est essentielle pour proposer des mesures permettant de réduire le déclin actuel de la biodiversité. La modélisation de la répartition d'espèces basée sur la niche (NBM) est l'un des rares outils permettant cette évaluation. Néanmoins, leur application dans le contexte des changements globaux repose sur des hypothèses restrictives et demande une interprétation critique. Ce travail présente une série d'études de cas investiguant les possibilités et limitations de cette approche pour prédire l'impact des changements globaux. Deux études traitant des menaces sur les espèces rares et en danger d'extinction sont présentées. Les caractéristiques éco-géographiques de 118 plantes avec un haut degré de priorité de conservation sont revues. La prévalence des types de rareté sont analysées en relation avec leur risque d'extinction UICN. La revue souligne l'importance de la conservation à l'échelle régionale. Une évaluation de la rareté à échelle globale peut être trompeuse pour certaine espèces car elle ne tient pas en compte des différents degrés de rareté que présente une espèce à différentes échelles spatiales. La deuxième étude test une approche pour améliorer l'échantillonnage d'espèces rares en incluant des phases itératives de modélisation et d'échantillonnage sur le terrain. L'application de l'approche en biologie de la conservation (illustrée ici par le cas du chardon bleu, Eryngium alpinum), permettrait de réduire le temps et les coûts d'échantillonnage. Deux études sur l'impact des changements climatiques sur la faune et la flore africaine sont présentées. La première étude évalue la sensibilité de 227 mammifères africains face aux climatiques d'ici 2050. Elle montre qu'un nombre important d'espèces pourrait être bientôt en danger d'extinction et que les parcs nationaux africains (principalement ceux situé en milieux xériques) pourraient ne pas remplir leur mandat de protection de la biodiversité dans le futur. La seconde étude modélise l'aire de répartition en 2050 de 975 espèces de plantes endémiques du sud de l'Afrique. L'étude propose l'inclusion de méthodes améliorant la prédiction des risques liés aux changements climatiques. Elle propose également une méthode pour estimer a priori la sensibilité d'une espèce aux changements climatiques à partir de ses propriétés écologiques et des caractéristiques de son aire de répartition. Trois études illustrent l'utilisation des modèles dans l'étude des invasions biologiques. Une première étude relate l'expansion de la laitue sáuvage (Lactuca serriola) vers le nord de l'Europe en lien avec les changements du climat depuis 250 ans. La deuxième étude analyse le potentiel d'invasion de la centaurée tachetée (Centaures maculosa), une mauvaise herbe importée en Amérique du nord vers 1890. L'étude apporte la preuve qu'une espèce envahissante peut occuper une niche climatique différente après introduction sur un autre continent. Les modèles basés sur l'aire native prédisent de manière incorrecte l'entier de l'aire envahie mais permettent de prévoir les aires d'introductions potentielles. Une méthode alternative, incluant la calibration du modèle à partir des deux aires où l'espèce est présente, est proposée pour améliorer les prédictions de l'invasion en Amérique du nord. Je présente finalement une revue de la littérature sur la dynamique de la niche écologique dans le temps et l'espace. Elle synthétise les récents développements théoriques concernant le conservatisme de la niche et propose des solutions pour améliorer la pertinence des prédictions d'impact des changements climatiques et des invasions biologiques. SUMMARY Evidences are accumulating that biodiversity is facing the effects of global change. The most influential drivers of change in ecosystems are land-use change, alien species invasions and climate change impacts. Accurate projections of species' responses to these changes are needed to propose mitigation measures to slow down the on-going erosion of biodiversity. Niche-based models (NBM) currently represent one of the only tools for such projections. However, their application in the context of global changes relies on restrictive assumptions, calling for cautious interpretations. In this thesis I aim to assess the effectiveness and shortcomings of niche-based models for the study of global change impacts on biodiversity through the investigation of specific, unsolved limitations and suggestion of new approaches. Two studies investigating threats to rare and endangered plants are presented. I review the ecogeographic characteristic of 118 endangered plants with high conservation priority in Switzerland. The prevalence of rarity types among plant species is analyzed in relation to IUCN extinction risks. The review underlines the importance of regional vs. global conservation and shows that a global assessment of rarity might be misleading for some species because it can fail to account for different degrees of rarity at a variety of spatial scales. The second study tests a modeling framework including iterative steps of modeling and field surveys to improve the sampling of rare species. The approach is illustrated with a rare alpine plant, Eryngium alpinum and shows promise for complementing conservation practices and reducing sampling costs. Two studies illustrate the impacts of climate change on African taxa. The first one assesses the sensitivity of 277 mammals at African scale to climate change by 2050 in terms of species richness and turnover. It shows that a substantial number of species could be critically endangered in the future. National parks situated in xeric ecosystems are not expected to meet their mandate of protecting current species diversity in the future. The second study model the distribution in 2050 of 975 endemic plant species in southern Africa. The study proposes the inclusion of new methodological insights improving the accuracy and ecological realism of predictions of global changes studies. It also investigates the possibility to estimate a priori the sensitivity of a species to climate change from the geographical distribution and ecological proprieties of the species. Three studies illustrate the application of NBM in the study of biological invasions. The first one investigates the Northwards expansion of Lactuca serriola L. in Europe during the last 250 years in relation with climate changes. In the last two decades, the species could not track climate change due to non climatic influences. A second study analyses the potential invasion extent of spotted knapweed, a European weed first introduced into North America in the 1890s. The study provides one of the first empirical evidence that an invasive species can occupy climatically distinct niche spaces following its introduction into a new area. Models fail to predict the current full extent of the invasion, but correctly predict areas of introduction. An alternative approach, involving the calibration of models with pooled data from both ranges, is proposed to improve predictions of the extent of invasion on models based solely on the native range. I finally present a review on the dynamic nature of ecological niches in space and time. It synthesizes the recent theoretical developments to the niche conservatism issues and proposes solutions to improve confidence in NBM predictions of the impacts of climate change and species invasions on species distributions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèseLe syndrome d'apnées obstructives du sommeil (SAOS) est une pathologie respiratoire fréquente. Sa prévalence est estimée entre 2 et 5% de la population adulte générale. Ses conséquences sont importantes. Notamment, une somnolence diurne, des troubles de la concentration, des troubles de la mémoire et une augmentation du risque d'accident de la route et du travail. Il représente également un facteur de risque cardiovasculaire indépendant.Ce syndrome est caractérisé par la survenue durant le sommeil d'obstructions répétées des voies aériennes supérieures. L'arrêt ou la diminution d'apport en oxygène vers les poumons entraîne des épisodes de diminution de la saturation en oxygène de l'hémoglobine. Les efforts ventilatoires visant à lever l'obstacle présent sur les voies aériennes causent de fréquents réveils à l'origine d'une fragmentation du sommeil.La polysomnographie (PSG) représente le moyen diagnostic de choix. Il consiste en l'enregistrement dans un laboratoire du sommeil et en présence d'un technicien diplômé, du tracé électroencéphalographique (EEG), de l'électrooculogramme (EOG), de l'électromyogramme mentonnier (EMG), du flux respiratoire nasal, de l'oxymétrie de pouls, de la fréquence cardiaque, de l'électrocardiogramme (ECG), des mouvements thoraciques et abdominaux, de la position du corps et des mouvements des jambes. L'examen est filmé par caméra infrarouge et les sons sont enregistrés.Cet examen permet entre autres mesures, de déterminer les événements respiratoires obstructifs nécessaires au diagnostic de syndrome d'apnée du sommeil. On définit une apnée lors d'arrêt complet du débit aérien durant au moins 10 secondes et une hypopnée en cas, soit de diminution franche de l'amplitude du flux respiratoire supérieure à 50% durant au moins 10 secondes, soit de diminution significative (20%) de l'amplitude du flux respiratoire pendant au minimum 10 secondes associée à un micro-éveil ou à une désaturation d'au moins 3% par rapport à la ligne de base. La détection des micro-éveils se fait en utilisant les dérivations électroencéphalographiques, électromyographiques et électrooculographiques. Il existe des critères visuels de reconnaissance de ces éveils transitoire: apparition de rythme alpha (8.1 à 12.0 Hz) ou beta (16 à 30 Hz) d'une durée supérieure à 3 secondes [20-21].Le diagnostic de S AOS est retenu si l'on retrouve plus de 5 événements respiratoires obstructifs par heure de sommeil associés soit à une somnolence diurne évaluée selon le score d'Epworth ou à au moins 2 symptômes parmi les suivants: sommeil non réparateur, étouffements nocturne, éveils multiples, fatigue, troubles de la concentration. Le S AOS est gradué en fonction du nombre d'événements obstructifs par heure de sommeil en léger (5 à 15), modéré (15 à 30) et sévère (>30).La polysomnographie (PSG) comporte plusieurs inconvénients pratiques. En effet, elle doit être réalisée dans un laboratoire du sommeil avec la présence permanente d'un technicien, limitant ainsi son accessibilité et entraînant des délais diagnostiques et thérapeutiques. Pour ces mêmes raisons, il s'agit d'un examen onéreux.La polygraphie respiratoire (PG) représente l'alternative diagnostique au gold standard qu'est l'examen polysomnographique. Cet examen consiste en l'enregistrement en ambulatoire, à savoir au domicile du patient, du flux nasalrespiratoire, de l'oxymétrie de pouls, de la fréquence cardiaque, de la position du corps et du ronflement (par mesure de pression).En raison de sa sensibilité et sa spécificité moindre, la PG reste recommandée uniquement en cas de forte probabilité de SAOS. Il existe deux raisons principales à l'origine de la moindre sensibilité de l'examen polygraphique. D'une part, du fait que l'état de veille ou de sommeil n'est pas déterminé avec précision, il y a dilution des événements respiratoires sur l'ensemble de l'enregistrement et non sur la période de sommeil uniquement. D'autre part, en l'absence de tracé EEG, la quantification des micro-éveils est impossible. Il n'est donc pas possible dans l'examen poly graphique, de reconnaître une hypopnée en cas de diminution de flux respiratoire de 20 à 50% non associée à un épisode de désaturation de l'hémoglobine de 3% au moins. Alors que dans l'examen polysomnographique, une telle diminution du flux respiratoire pourrait être associée à un micro-éveil et ainsi comptabilisée en tant qu'hypopnée.De ce constat est né la volonté de trouver un équivalent de micro-éveil en polygraphie, en utilisant les signaux à disposition, afin d'augmenter la sensibilité de l'examen polygraphique.Or plusieurs études ont démontrés que les micro-éveils sont associés à des réactions du système nerveux autonome. Lors des micro-éveils, on met en évidence la survenue d'une vasoconstriction périphérique. La variation du tonus sympathique associée aux micro-éveils peut être mesurée par différentes méthodes. Les variations de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie représentant un marqueur fiable de la vasoconstriction périphérique associée aux micro-réveils, il paraît donc opportun d'utiliser ce marqueur autonomique disponible sur le tracé des polygraphies ambulatoires afin de renforcer la sensibilité de cet examen.Le but de l'étude est d'évaluer la sensibilité des variations de l'amplitude de l'onde de pouls pour détecter des micro-réveils corticaux afin de trouver un moyen d'augmenter la sensibilité de l'examen polygraphique et de renforcer ainsi sont pouvoir diagnostic.L'objectif est de démontrer qu'une diminution significative de l'amplitude de l'onde pouls est concomitante à une activation corticale correspondant à un micro¬réveil. Cette constatation pourrait permettre de déterminer une hypopnée, en polygraphie, par une diminution de 20 à 50% du flux respiratoire sans désaturation de 3% mais associée à une baisse significative de l'amplitude de pouls en postulant que l'événement respiratoire a entraîné un micro-réveil. On retrouve par cette méthode les mêmes critères de scoring d'événements respiratoires en polygraphie et en polysomnographie, et l'on renforce la sensibilité de la polygraphie par rapport au gold standard polysomnographique.La méthode consiste à montrer en polysomnographie qu'une diminution significative de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie est associée à une activation du signal électroencéphalographique, en réalisant une analyse spectrale du tracé EEG lors des baisses d'amplitude du signal d'onde de pouls.Pour ce faire nous avons réalisé une étude rétrospective sur plus de 1000 diminutions de l'amplitude de l'onde de pouls sur les tracés de 10 sujets choisis de manière aléatoire parmi les patients référés dans notre centre du sommeil (CIRS) pour suspicion de trouble respiratoire du sommeil avec somnolence ou symptomatologie diurne.Les enregistrements nocturnes ont été effectués de manière standard dans des chambres individuelles en utilisant le système d'acquisition Embla avec l'ensemble des capteurs habituels. Les données ont été par la suite visuellement analysées et mesurées en utilisant le software Somnologica version 5.1, qui fournit un signal de l'amplitude de l'onde de pouls (puise wave amplitude - PWA).Dans un premier temps, un technicien du sommeil a réalisé une analyse visuelle du tracé EEG, en l'absence des données du signal d'amplitude d'onde de pouls. Il a déterminé les phases d'éveil et de sommeil, les stades du sommeil et les micro¬éveils selon les critères standards. Les micro-éveils sont définis lors d'un changement abrupt dans la fréquence de l'EEG avec un pattern d'ondes thêta-alpha et/ou une fréquence supérieure à 16 Hz (en l'absence de fuseau) d'une durée d'au minimum trois secondes. Si cette durée excède quinze secondes, l'événement correspond à un réveil.Puis, deux investigateurs ont analysé le signal d'amplitude d'onde de pouls, en masquant les données du tracé EEG qui inclut les micro-éveils. L'amplitude d'onde de pouls est calculée comme la différence de valeur entre le zénith et le nadir de l'onde pour chaque cycle cardiaque. Pour chaque baisse de l'amplitude d'onde de pouls, la plus grande et la plus petite amplitude sont déterminées et le pourcentage de baisse est calculé comme le rapport entre ces deux amplitudes. On retient de manière arbitraire une baisse d'au moins 20% comme étant significative. Cette limite a été choisie pour des raisons pratiques et cliniques, dès lors qu'elle représentait, à notre sens, la baisse minimale identifiable à l'inspection visuelle. Chaque baisse de PWA retenue est divisée en 5 périodes contiguës de cinq secondes chacune. Deux avant, une pendant et deux après la baisse de PWA.Pour chaque période de cinq secondes, on a pratiqué une analyse spectrale du tracé EEG correspondant. Le canal EEG C4-A1 est analysé en utilisant la transformée rapide de Fourier (FFT) pour chaque baisse de PWA et pour chaque période de cinq secondes avec une résolution de 0.2 Hz. La distribution spectrale est catégorisée dans chaque bande de fréquence: delta (0.5 à 4.0 Hz); thêta (4.1 à 8.0Hz); alpha (8.1 à 12.0 Hz); sigma (12.1 à 16 Hz) et beta (16.1 à 30.0 Hz). La densité de puissance (power density, en μΥ2 ) pour chaque bande de fréquence a été calculée et normalisée en tant que pourcentage de la puissance totale. On a déterminé, ensuite, la différence de densité de puissance entre les 5 périodes par ANOVA on the rank. Un test post hoc Tukey est été utilisé pour déterminer si les différences de densité de puissance étaient significatives. Les calculs ont été effectués à l'aide du software Sigmastat version 3.0 (Systat Software San Jose, California, USA).Le principal résultat obtenu dans cette étude est d'avoir montré une augmentation significative de la densité de puissance de l'EEG pour toutes les bandes de fréquence durant la baisse de l'amplitude de l'onde de pouls par rapport à la période avant et après la baisse. Cette augmentation est par ailleurs retrouvée dans la plupart des bande de fréquence en l'absence de micro-réveil visuellement identifié.Ce résultat témoigné donc d'une activation corticale significative associée à la diminution de l'onde de pouls. Ce résulat pourrait permettre d'utiliser les variations de l'onde de pouls dans les tracés de polygraphie comme marqueur d'une activation corticale. Cependant on peut dire que ce marqueur est plus sensible que l'analyse visuelle du tracé EEG par un technicien puisque qu'on notait une augmentation de lactivité corticale y compris en l'absence de micro-réveil visuellement identifié. L'application pratique de ces résultats nécessite donc une étude prospective complémentaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME :Les fourmis du groupe Formica rufa, ou fourmis des bois, ainsi appelées en raison de leur préférence pour les écosystèmes forestiers, sont parmi les fourmis les plus fascinantes et les plus étudiées d'Europe. Ces fourmis jouent un rôle clé dans la plupart des forêts dans lesquelles elles vivent et sont considérées comme étant les meilleurs bioindicateurs de ces milieux. Pour ces raisons, les fourmis des bois sont protégées par la loi dans de nombreux pays européens, y compris en Suisse. Cependant, malgré leur protection, ces fourmis sont inscrites sur la liste rouge des espèces menacées dans plusieurs pays d'Europe et il est donc indispensable de bien les connaître afin de mieux les protéger.À l'heure actuelle, on considère que le groupe Formica rufa est composé de six espèces distinctes : F. rufa, F. polyctena, F. lugubris, F. paralugubris, F. aquilonia et F. pratensis. Toutefois, malgré la grande quantité d'études effectuées sur ces espèces, la systématique et l'identification des fourmis des bois sont toujours sujettes à discussion. Ceci est essentiellement dû au fait que ces espèces sont morphologiquement similaires et qu'elles sont parfois capables de s'hybrider ou de former des colonies mixtes.Une des conditions fondamentales pour toute étude en biologie de la conservation est l'identification correcte des espèces à protéger. Avec cette étude, nous désirons donc dénouer les problèmes liés à la systématique des fourmis des bois et analyser la diversité de ces espèces en adoptant une approche multidisciplinaire.Nous avons d'abord étudié la distribution des espèces jumelles F. lugubris et F. paralugubris dans les Álpes italiennes en re-analysant l'une des plus grandes collections de références sur ces espèces, déposée à l'Université de Pavie, Italie, et en récoltant de nouveaux échantillons sur le terrain. Nos analyses ont montré que F, paralugubris, décrite récemment et souvent «oubliée »par les chercheurs, est bien présente dans les Alpes et vit souvent en sympathie avec F. lugubris. Ensuite nous avons développé un outil moléculaire basé sur l'ADN mitochondrial pour une identification rapide et efficace de ces deux espèces. Au vu des bons résultats, nous avons étendu nos analyses génétiques (microsatellites) à toutes les espèces du groupe F. rufa, ce qui nous a permis de montrer que les outils moléculaires sont très efficaces pour identifier ces fourmis. En outre, nos analyses ont mis en évidence la présence d'une nouvelle espèce cryptique (appelée F. lugubris-X) au sein du Parc National Suisse. L'existence d'une nouvelle espèce peut avoir une grande influence sur les projets de conservation en faveur de ces espèces. Nous avons donc décidé de confirmer ce résultat avec des analyses comportementales et des analyses chimiques basées sur les phéromones sexuelles des différentes espèces, y compris F. lugubris-X. Les deux approches confirment nos données génétiques et indiquent que F. lugubris-X représente bel et bien une nouvelle espèce de fourmis des bois dans les Alpes Suisses.Les résultats de cette étude ont une grande importance du point de vue de la biodiversité. En plus, ils livrent aux futurs chercheurs des outils fiables pour l'identification des fourmis des bois et ouvrent de captivantes perspectives pour une meilleure protection de ces insectes et, par conséquent, de nos écosystèmes forestiers. .Abstract :Mound building red wood ants (species of the Formica rufa group) belong to one of the most studied groups of ants in Europe and have fundamental roles and positive effects in forested habitats of the northern hemisphere. In addition, they are considered among the most promising bioindicators of forest ecosystems. Because of their importance, these ants are protected by law in many European countries, including Switzerland. However, despite this protection, they are included on the red list of threatened species edited by the International Union for Conservation of Nature (IUCN) and on the red list of some particular countries like Switzerland. Because of their similar morphology and a high intraspecific variability, the morphological identification of these species can be quite complicated. In addition, they are sometimes able to hybridize or to form mixed colonies. Consequently, the taxonomy of this group of ants has been much debated during the past decades. Based on a phylogenetic study, today the group is considered to count six species in Europe: F. rufa, F. po/yctena, F. lugubris, F. paralugubris, F. aquilonia and F. pratensis. Nevertheless, the taxonomy of the group is often neglected mainly due to the lack of reliable and easy to use identification methods.Considering the importance of correct species assessment in conservation biology, in this study we want to disentangle the taxonomical difficulties within the Formica rufa group and to clarify the diversity of these protected ants, by using an integrative approach.We first analyzed the distribution of .the sibling species F. lugubris and F. paralugubris in the Italian Alps by collecting new samples on the field and by examining one of the major red wood ant collections, which is deposited at the University of Pavia, Italy. After that, we developed a molecular tool based on mitochondria) DNA, which provides a reliable and easy-to-use technique for the identification of F. lugubris and F. paralugubris. Afterwards, we extended the use of molecular markers for species identification to the whole F. rufa group and made a microsatellite analysis. Results confirm that molecular markers are consistent tools for species identification and that the six known species represent six different genetic pools. In addition, genetic data highlighted the existence of a new cryptic species in the Swiss Alps, called Formica lugubris-X.The presence of a new species can have a great influence on future conservation plans in favour of these protected ants and consequently for forested habitats. We therefore completed molecular data by behavioural (pupae recognition) and chemical analyses based on six pheromones of the entire F. rufa group. Both approaches are in accordance to genetic results and confirm that F. lugubris-X really represents a new cryptic species of red wood ant within the Swiss National Park (Eastern Swiss Alps).Results obtained in this study have a great importance in terms of biodiversity. Moreover, they provide important taxonomical information, reliable tools for species identifications and future perspectives for a consequent conservation of red wood ant species.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les réformes du système de la santé, introduisant des objectifs d'efficience et de rentabilité inspirés de la doctrine de la Nouvelle gouvernance publique (NGOP), impactent l'organisation des hôpitaux et ses acteurs. Cette recherche étudie les conséquences de l'implémentation de la logique et des outils managériaux sur la profession d'infirmière en termes de contenu du travail et d'identité professionnelle. La reconfiguration des tâches au sein des structures hospitalières semble réduire l'autonomie de ces acteurs de terrain et affecter le sens que les infirmières donnent à leur travail. Par le prisme du pouvoir discrétionnaire, l'étude montre comment le personnel infirmier, principalement selon ses critères moraux, use de stratégies d'ajustement pour faire coïncider ses valeurs avec l'environnement professionnel. Toutefois, la disjonction entre les impératifs managériaux et les valeurs des infirmières engendre de la souffrance au travail. Dans une approche psychosociale, ce mémoire relie le mal-être des infirmières au concept de la « qualité empêchée » qui dévoile le mécanisme par lequel l'action des infirmières est privée en partie de son contenu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente recherche se propose de désobstruer un certain nombre de catégories « esthétiques », au sens étendu du terme, de leur métaphysique implicite. La thèse que je souhaite défendre se présente sous la forme d'un paradoxe : d'une part, le sens originel d'« esthétique » a été perdu de vue, d'autre part, malgré cet oubli, quiconque s'interroge philosophiquement sur les beaux-arts reçoit, nolens volens, Baumgarten en héritage. Avec AEsthetica (1750/1758), ouvrage inachevé et hautement problématique, nous pourrions dire, citant René Char, qu'il s'agit-là d'un « héritage précédé d'aucun testament ». En d'autres termes, ce qui nous échoit nous occupe, voire nous préoccupe, sans que nous disposions des outils conceptuels pour nous y rapporter librement. Soyons clairs, je ne soutiens pas que l'esthétique philosophique, telle qu'elle s'énonce à ses débuts, soit un passage obligé pour penser l'art, et ce d'autant plus qu'il ne s'agit pas d'un passage, mais proprement d'une impasse. Ce que je veux dire, c'est que Kant répond à Baumgarten, et que Hegel répond à Kant et ainsi de suite. Il n'y a pas de tabula rasa dans l'histoire de la pensée, et l'oubli de l'historicité d'une pensée est le meilleur moyen de la neutraliser en simple supplément culturel, tout en demeurant entièrement captifs de ses présupposés.Au départ, la question qui motivait implicitement la rédaction de cette recherche se formulait ainsi : « Dans quelle mesure la philosophie énonce-t-elle quelque chose d'important au sujet des beaux-arts ? » Au fil du temps, la question s'est inversée pour devenir : « Qu'est-ce que les écrits sur les beaux- arts, tels qu'ils foisonnent au 18e siècle, nous enseignent à propos de la philosophie et des limites inhérentes à sa manière de questionner ?» Et gardons-nous de penser qu'une telle inversion cantonne la question de l'esthétique, au sens très large du terme, à n'être qu'une critique immanente à l'histoire de la philosophie. Si la philosophie était une « discipline » parmi d'autres, un « objet » d'étude possible dans la liste des matières universitaires à choix, elle ne vaudrait pas, à mon sens, une seule heure de peine. Mais c'est bien parce que la philosophie continue à orienter la manière dont nous nous rapportons au « réel », au « monde » ou à l'« art » - je place les termes entre guillemets pour indiquer qu'il s'agit à la fois de termes usuels et de concepts philosophiques - que les enjeux de la question de l'esthétique, qui est aussi et avant tout la question du sentir, excèdent l'histoire de la philosophie.Pour introduire aux problèmes soulevés par l'esthétique comme discipline philosophique, j'ai commencé par esquisser à grands traits la question du statut de l'image, au sens le plus général du terme. Le fil conducteur a été celui de l'antique comparaison qui conçoit la poésie comme une « peinture parlante » et la peinture comme une « poésie muette ». Dans le prolongement de cette comparaison, le fameux adage ut pictura poesis erit a été conçu comme le véritable noeud de toute conception esthétique à venir.Il s'est avéré nécessaire d'insister sur la double origine de la question de l'esthétique, c'est-à-dire la rencontre entre la pensée grecque et le christianisme. En effet, l'un des concepts fondamentaux de l'esthétique, le concept de création et, plus spécifiquement la possibilité d'une création ex nihiio, a été en premier lieu un dogme théologique. Si j'ai beaucoup insisté sur ce point, ce n'est point pour établir une stricte identité entre ce dogme théologique et le concept de création esthétique qui, force est de l'admettre, est somme toute souvent assez flottant dans les écrits du 18e siècle. L'essor majeur de la notion de création, couplée avec celle de génie, sera davantage l'une des caractéristiques majeures du romantisme au siècle suivant. La démonstration vise plutôt à mettre en perspective l'idée selon laquelle, à la suite des théoriciens de l'art de la Renaissance, les philosophes du Siècle des Lumières ont accordé au faire artistique ou littéraire une valeur parfaitement inédite. Si l'inventeur du terme « esthétique » n'emploie pas explicitement le concept de création, il n'en demeure pas moins qu'il attribue aux poètes et aux artistes le pouvoir de faire surgir des mondes possibles et que ceux-ci, au même titre que d'autres régions de l'étant, font l'objet d'une saisie systématique qui vise à faire apparaître la vérité qui leur est propre. Par l'extension de l'horizon de la logique classique, Baumgarten inclut les beaux-arts, à titre de partie constituante des arts libéraux, comme objets de la logique au sens élargi du terme, appelée « esthético- logique ». L'inclusion de ce domaine spécifique d'étants est justifiée, selon les dires de son auteur, par le manque de concrétude de la logique formelle. Or, et cela n'est pas le moindre des paradoxes de l'esthétique, la subsomption des beaux-arts sous un concept unitaire d'Art et la portée noétique qui leur est conférée, s'opère à la faveur du sacrifice de leur singularité et de leur spécificité. Cela explique le choix du titre : « métaphysique de l'Art » et non pas « métaphysique de l'oeuvre d'art » ou « métaphysique des beaux-arts ». Et cette aporîe constitutive de la première esthétique est indépassable à partir des prémices que son auteur a établies, faisant de la nouvelle discipline une science qui, à ce titre, ne peut que prétendre à l'universalité.Au 18e siècle, certaines théories du beau empruntent la voie alternative de la critique du goût. J'ai souhaité questionner ces alternatives pour voir si elles échappent aux problèmes posés par la métaphysique de l'Art. Ce point peut être considéré comme une réplique à Kant qui, dans une note devenue célèbre, soutient que « les Allemands sont les seuls à se servir du mot "esthétique" pour désigner ce que d'autres appellent la critique du goût ». J'ai démontré que ces deux termes ne sont pas synonymes bien que ces deux positions philosophiques partagent et s'appuient sur des présupposés analogues.La distinction entre ces deux manières de penser l'art peut être restituée synthétiquement de la sorte : la saisie systématique des arts du beau en leur diversité et leur subsomption en un concept d'Art unitaire, qui leur attribue des qualités objectives et une valeur de vérité indépendante de toute saisie subjective, relègue, de facto, la question du jugement de goût à l'arrière-plan. La valeur de vérité de l'Art, définie comme la totalité des qualités intrinsèques des oeuvres est, par définition, non tributaire du jugement subjectif. Autrement dit, si les oeuvres d'art présentent des qualités intrinsèques, la question directrice inhérente à la démarche de Baumgarten ne peut donc nullement être celle d'une critique du goût, comme opération subjective {Le. relative au sujet, sans que cela soit forcément synonyme de « relativisme »), mais bien la quête d'un fondement qui soit en mesure de conférer à l'esthétique philosophique, en tant que métaphysique spéciale, sa légitimité.Ce qui distingue sur le plan philosophique le projet d'une métaphysique de l'Art de celui d'une esthétique du goût réside en ceci que le premier est guidé, a priori, par la nécessité de produire un discours valant universellement, indépendant des oeuvres d'art, tandis que le goût, pour s'exercer, implique toujours une oeuvre singulière, concrète, sans laquelle celui-ci ne reste qu'à l'état de potentialité. Le goût a trait au particulier et au contingent, sans être pour autant quelque chose d'aléatoire. En effet, il n'est pas un véritable philosophe s'interrogeant sur cette notion qui n'ait entrevu, d'une manière ou d'une autre, la nécessité de porter le goût à la hauteur d'un jugement, c'est-à-dire lui conférer au moins une règle ou une norme qui puisse le légitimer comme tel et le sauver du relativisme, pris en son sens le plus péjoratif. La délicatesse du goût va même jusqu'à être tenue pour une forme de « connaissance », par laquelle les choses sont appréhendées dans toute leur subtilité. Les différents auteurs évoqués pour cette question (Francis Hutcheson, David Hume, Alexander Gerard, Louis de Jaucourt, Montesquieu, Voltaire, D'Alembert, Denis Diderot, Edmund Burke), soutiennent qu'il y a bien quelque chose comme des « normes » du goût, que celles-ci soient inférées des oeuvres de génie ou qu'elles soient postulées a priori, garanties par une transcendance divine ou par la bonté de la Nature elle-même, ce qui revient, en dernière instance au même puisque le geste est similaire : rechercher dans le suprasensible, dans l'Idée, un fondement stable et identique à soi en mesure de garantir la stabilité de l'expérience du monde phénoménal.La seconde partie de la recherche s'est articulée autour de la question suivante : est-ce que les esthétiques du goût qui mesurent la « valeur » de l'oeuvre d'art à l'aune d'un jugement subjectif et par l'intensité du sentiment échappent aux apories constitutives de la métaphysique de l'Art ?En un sens, une réponse partielle à cette question est déjà contenue dans l'expression « esthétique du goût ». Cette expression ne doit pas être prise au sens d'une discipline ou d'un corpus unifié : la diversité des positions présentées dans cette recherche, bien que non exhaustive, suffit à le démontrer. Mais ce qui est suggéré par cette expression, c'est que ces manières de questionner l'art sont plus proches du sens original du terme aisthêsis que ne l'est la première esthétique philosophique de l'histoire de la philosophie. L'exercice du goût est une activité propre du sentir qui, en même temps, est en rapport direct avec la capacité intellectuelle à discerner les choses et à un juger avec finesse et justesse.Avec le goût esthétique s'invente une espèce de « sens sans organe » dont la teneur ontologique est hybride, mais dont le nom est identique à celui des cinq sens qui procurent la jouissance sensible la plus immédiate et la moins raisonnable qui soit. Par la reconnaissance de l'existence d'un goût « juste » et « vrai », ou à défaut, au moins de l'existence d'une « norme » indiscutable de celui-ci, c'est-à-dire de la possibilité de formuler un jugement de goût une tentative inédite de spîritualisation de la sensibilité a lieu.Par conséquent, il est loin d'être évident que ce que j'ai appelé les esthétiques du goût échappent à un autre aspect aporétique de la métaphysique de l'Art, à savoir : passer à côté du caractère singulier de telle ou telle oeuvre afin d'en dégager les traits universels qui permettent au discours de s'étayer. Dans une moindre mesure, cela est même le cas dans les Salons de Diderot où, trop souvent, le tableau sert de prétexte à l'élaboration d'un discours brillant.Par contre, tout l'intérêt de la question du goût réside en ceci qu'elle présente, de façon particulièrement aiguë, les limites proprement métaphysiques dont l'esthétique, à titre de discipline philosophique, se fait la légataire et tente à sa manière d'y remédier par une extension inédite du concept de vérité et sa caractérisai ion en termes de vérité « esthéticologique » au paragraphe 427 de Y Esthétique. Cela dit, le fait même que dans l'empirisme la sensibilité s'oppose, une fois de plus, à l'intellect comme source de la naissance des idées - même si c'est dans la perspective d'une réhabilitation de la sensibilité -, indique que l'horizon même de questionnement demeure inchangé. Si le goût a pu enfin acquérir ses lettres de noblesse philosophique, c'est parce qu'il a été ramené, plus ou moins explicitement, du côté de la raison. Le jugement portant sur les arts et, de manière plus générale, sur tout ce qui est affaire de goût ne saurait se limiter au sentiment de plaisir immédiat. Le vécu personnel doit se transcender en vertu de critères qui non seulement permettent de dépasser le relativisme solipsiste, mais aussi de donner forme à l'expérience vécue afin qu'elle manifeste à chaque fois, et de façon singulière, une portée universelle.Le goût, tel qu'il devient un topos des discours sur l'art au 18e siècle, peut, à mon sens, être interprété comme l'équivalent de la glande pinéale dans la physiologie cartésienne : l'invention d'un « je ne sais quoi » situé on ne sait où, sorte d'Hermès qui assure la communication entre l'âme et le corps et sert l'intermédiaire entre l'intellect et la sensibilité. L'expérience décrite dans l'exercice du goût implique de facto une dimension par définition occultée par la métaphysique de l'Art : le désir. Pour goûter, il faut désirer et accepter d'être rempli par l'objet de goût. Dans l'exercice du goût, le corps est en jeu autant que l'intellect, il s'agit d'une expérience totale dans laquelle aucune mise à distance théorétique n'est, en un premier temps, à même de nous prémunir de la violence des passions qui nous affectent. L'ambiguïté de cette notion réside précisément dans son statut ontologiquement problématique. Mais cette incertitude est féconde puisqu'elle met en exergue le caractère problématique de la distinction entre corps et esprit. Dans la notion de goût est contenue l'idée que le corps pense aussi et que, par voie de conséquence, la sensibilité n'est pas dépourvue de dimension spirituelle. Reste que formuler les choses de la sorte revient à rejouer, en quelque sorte, l'antique diaphorâ platonicienne et à convoquer, une fois de plus, les grandes oppositions métaphysiques telles que corps et âme, sensible et intelligible, matière et forme.La troisième partie est entièrement consacrée à Shaftesbury qui anticipe le statut ontologiquement fort de l'oeuvre d'art (tel qu'il sera thématisé par Baumgarten) et l'allie à une critique du goût. Cet auteur peut être considéré comme une forme d'exception qui confirme la règle puisque sa métaphysique de l'Art laisse une place prépondérante à une critique du goût. Mais le cumul de ces deux caractéristiques opposées un peu schématiquement pour les besoins de la démonstration n'invalide pas l'hypothèse de départ qui consiste à dire que la saisie philosophique de la question du goût et l'invention conjointe de l'esthétique au 18e siècle sont deux tentatives de trouver une issue au problème du dualisme des substances.Cette recherche doit être prise comme une forme de propédeutique à la fois absolument nécessaire et parfaitement insuffisante. Après Baumgarten et le siècle du goût philosophique, les propositions de dépassement des apories constitutives d'une tradition qui pense l'art à partir de couples d'oppositions métaphysiques tels qu'âme et corps, forme et matière, ainsi que leurs traductions dans les arts visuels (dessin et couleur ou encore figuration et abstraction), n'ont pas manqué. Il aurait fallu in fine s'effacer pour laisser la place aux plasticiens eux-mêmes, mais aussi aux poètes, non plus dans l'horizon de Y ut pictura, mais lorsqu'ils expriment, sans verser dans l'analyse conceptuelle, leurs rencontres avec telle ou telle oeuvre (je pense à Baudelaire lorsqu'il évoque Constantin Guys, à Charles Ferdinand Ramuz lorsqu'il rend hommage à Cézanne ou encore à Pascal Quignard lorsqu'il raconte les fresques de la maison des Dioscures à Pompéi, pour ne citer que trois noms qui affleurent immédiatement à ma mémoire tant leur souvenir est vivace et leur exemple un modèle). Et puis il s'agit, malgré tout, de ne pas renoncer pour autant au discours esthétique, c'est- à-dire à la philosophie, mais de réinterroger les catégories dont nous sommes les légataires et de penser avec et au-delà des limites qu'elles nous assignent. Mais cela ferait l'objet d'un autre ouvrage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'épuisement des énergies fossiles est un thème d'actualité dont les prémices datent, selon l'opinion courante, des années 1970 et du premier choc pétrolier. En réalité, c'est une préoccupation plus ancienne, intimement liée à l'ère industrielle. Dans la deuxième partie du XIXème siècle, les économistes se sont penchés sur la question de l'épuisement des minerais, 'objet non identifié' jusqu'alors et nécessitant la mise sur pied de nouveaux outils d'analyse (effet-rebond chez Jevons, rente minière chez Marshall-Einaudi notamment). Avec le progrès des techniques et l'apparition de nouvelles énergies (pétrole, hydro-électricité), leurs craintes de déclin industriel se sont progressivement dissipées dans les années 1910 et 1920. Mais ces évolutions tenant à l'histoire des faits ne sont pas les seules à considérer. Des facteurs internes à la discipline économique, comme l'émergence du marginalisme dans les années 1870 et de la théorie de l'épargne et du capital dans les années 1890, ont aussi changé le regard des économistes sur la question de l'épuisement des ressources. Pourquoi ? Comment ? Quels enseignements peut-on en tirer pour les défis environnementaux d'aujourd'hui ? Voilà les questions qui sont traitées dans ce travail de thèse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'article questionne la capacité des pratiques de gestion des ressources humaines à permettre la mobilisation et l'engagement organisationnel des travailleurs du savoir dans les PME en Suisse. Sur la base d'une enquête quantitative (n = 198), les pratiques et outils de GRH susceptibles d'influer sur l'engagement organisationnel de la population investiguée sont identifiés. Les résultats montrent que l'environnement de travail, la reconnaissance du travail accompli et la fierté d'appartenance ont des impacts importants sur l'engagement organisationnel des répondants. En fin d'analyse cet article démontre, s'il en était encore besoin, que manager par le sens est souvent bien efficace pour mobiliser les salariés que de gérer par la mesure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introductionþ: L'insulinothérapie intraveineuse est la mieux adaptée pour obtenirun contrôle glycémique rapidement efficace ou lors de besoins en insulinechangeants de façon peu prévisible, mais son emploi hors des soins intensifs seheurte souvent aux manque de formation et réticences des soignants. L'inclusionL'inclusiondu contrôle glycémique rapide dans nos standards institutionnels de priseen charge de l'AVC aigu a suscité une demande de protocole thérapeutiqueadapté aux besoins de l'Unité cérébrovasculaire.Patients et méthodesþ: Le protocole d'insulinothérapie a été dérivé d'algorithmespubliés intégrant glycémie actuelle, cinétique glycémique et sensibilité àl'insuline du patient. Aux repas, une augmentation du débit d'insuline iv. pendant1 h a été ajoutée. Les objectifs glycémiques étaient 4-6þmmol/l en préprandialetþ< 8þmmol/l en postprandial. L'implémentation s'est faite à travers unprocessus de co-construction (outils de gestion, documents et activités de formation)avec les responsables médico-infirmiers du service.Résultatsþ: Les données des 90 premiers patients ont été analysées (diabète connuþ:38, hyperglycémie nouvelleþ: 52, 2715h de traitement cumulées). Les duréesd'insulinothérapie iv. étaient de 34,5 h [interquartile 24-39] et 26,5 h [21-36,3] respectivement(pþ=þ0,03), les délais d'atteinte de l'objectif de 5 h [4.0-8.25] et 7 h[4.0-9.75] (pþ=þns.). Pendant les 24 h suivantes, les taux de glycémies dans la cibleétaient de 70,4þ%/81,3þ% (90,3þ%/94,6þ% entre 4-8þmmol/l), avec un faible tauxd'hypoglycémies (3,9þ%/3,1þ%þ< 4,0þmmol/l, 0,4þ%/0,2þ%þ<þ3,3þmmol/l) et un contrôleglycémique postprandial comparable (excursions +2,6þmmol/l [0,7-3,9] et+1,7þmmol/l [0,6-3,7]þ; Nþ=þ75þ; pþ=þns.).Conclusionþ: L'insulinothérapie intraveineuse hors des soins intensifs est faisable,hautement sûre et efficace, même avec des objectifs glycémiques particulièrementstricts. Outre la fiabilité perçue de l'outil de gestion, la démarche departenariat adoptée avec les soignants, permettant la prise en compte de leurspréoccupations à chaque étape du processus, a été un facteur de succès importantpour son implémentation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A criminal investigation requires to search and to interpret vestiges of a criminal act that happened in a past time. The forensic investigator arises in this context as a critical reader of the investigation scene, in search of physical traces that should enable her to tell a story of the offence/crime which allegedly occurred. The challenge of any investigator is to detect and recognise relevant physical traces in order to provide forensic clues for investigation and intelligence purposes. Inspired by this obser- vation, the current research focuses on the following questions : What is a relevant physical trace? And, how does the forensic investigator know she is facing one ? The interest of such questions is to provide a definition of a dimension often used in forensic science but never studied in its implications and operations. This doctoral research investigates scientific paths that are not often explored in forensic science, by using semiotic and sociological tools combined with statistical data analysis. The results are shown following a semiotic path, strongly influenced by Peir- ce's studies, and a second track, called empirical, where investigations data were analysed and forensic investigators interviewed about their work practices in the field. By the semiotic track, a macroscopic view is given of a signification process running from the discove- red physical trace at the scene to what is evaluated as being relevant for the investigator. The physical trace is perceived in the form of several signs, whose meaning is culturally codified. The reasoning should consist of three main steps : 1- What kind of source does the discovered physical trace refer to ? 2- What cause/activity is at the origin of this source in the specific context of the case ? 3- What story can be told from these observations ? The stage 3 requires to reason in creating hypotheses that should explain the presence of the discovered trace coming from an activity ; the specific activity that is related to the investigated case. To validate this assumption, it would depend on their ability to respond to a rule of relevancy. The last step is the symbolisation of the relevancy. The rule would consist of two points : the recognition of the factual/circumstantial relevancy (Is the link between the trace and the case recognised with the formulated hypothesis ? ) and appropriate relevancy (What investment is required to collect and analyse the discovered trace considering the expected outcome at the investigation/intelligence level?). This process of meaning is based on observations and a conjectural reasoning subject to many influences. In this study, relevancy in forensic science is presented as a conventional dimension that is symbolised and conditioned by the context, the forensic investigator's practice and her workplace environment (culture of the place). In short, the current research states relevancy results of the interactions between parameters from situational, structural (or organisational) and individual orders. The detection, collection and analysis of relevant physical traces at scenes depends on the knowledge and culture mastered by the forensic investigator. In the study of the relation relevant trace-forensic investigator, this research introduces the KEE model as a conceptual map that illustrates three major areas of forensic knowledge and culture acquisition, involved in the research and evaluation of the relevant physical trace. Through the analysis of the investigation data and interviews, the relationship between those three parameters and the relevancy was highlighted. K, for knowing, embodies a rela- tionship to the immediate knowledge allowing to give an overview of the reality at a specific moment ; an important point since relevancy is signified in a context. E, for education, is considered through its relationship with relevancy via a culture that tends to become institutionalised ; it represents the theoretical knowledge. As for the parameter E, for experience, it exists in its relation to relevancy in the adjustments of the strategies of intervention (i.e a practical knowledge) of each practitioner having modulated her work in the light of success and setbacks case after case. The two E parameters constitute the library resources for the semiotic recognition process and the K parameter ensures the contextualisation required to set up the reasoning and to formulate explanatory hypotheses for the discovered physical traces, questioned in their relevancy. This research demonstrates that the relevancy is not absolute. It is temporal and contextual; it is a conventional and relative dimension that must be discussed. This is where the whole issue of the meaning of what is relevant to each stakeholder of the investigation process rests. By proposing a step by step approach to the meaning process from the physical trace to the forensic clue, this study aims to provide a more advanced understanding of the reasoning and its operation, in order to streng- then forensic investigators' training. This doctoral research presents a set of tools critical to both pedagogical and practical aspects for crime scene management while identifying key-influences with individual, structural and situational dimensions. - Une enquête criminelle consiste à rechercher et à faire parler les vestiges d'un acte incriminé passé. L'investigateur forensique se pose dans ce cadre comme un lecteur critique des lieux à la recherche de traces devant lui permettre de former son récit, soit l'histoire du délit/crime censé s'être produit. Le challenge de tout investigateur est de pouvoir détecter et reconnaître les traces dites pertinentes pour fournir des indices forensiques à buts d'enquête et de renseignement. Inspirée par un tel constat, la présente recherche pose au coeur de ses réflexions les questions suivantes : Qu'est-ce qu'une trace pertinente ? Et, comment fait le forensicien pour déterminer qu'il y fait face ? L'intérêt de tels questionnements se comprend dans la volonté de définir une dimension souvent utili- sée en science forensique, mais encore jamais étudiée dans ses implications et fonctionnements. Cette recherche se lance dans des voies d'étude encore peu explorées en usant d'outils sémiotiques et des pratiques d'enquêtes sociologiques combinés à des traitements statistiques de données. Les résultats sont représentés en suivant une piste sémiotique fortement influencée par les écrits de Peirce et une seconde piste dite empirique où des données d'interventions ont été analysées et des investigateurs forensiques interviewés sur leurs pratiques de travail sur le terrain. Par la piste sémiotique, une vision macroscopique du processus de signification de la trace en élément pertinent est représentée. La trace est perçue sous la forme de plusieurs signes dont la signification est codifiée culturellement. Le raisonnement se formaliserait en trois principales étapes : 1- Quel type de source évoque la trace détectée? 2- Quelle cause/activité est à l'origine de cette source dans le contexte précis du cas ? 3- Quelle histoire peut être racontée à partir de ces observations ? Cette dernière étape consiste à raisonner en créant des hypothèses devant expliquer la présence de la trace détectée suite à une activité posée comme étant en lien avec le cas investigué. Pour valider ces hypothèses, cela dépendrait de leur capacité à répondre à une règle, celle de la pertinence. Cette dernière étape consiste en la symbolisation de la pertinence. La règle se composerait de deux points : la reconnaissance de la pertinence factuelle (le lien entre la trace et le cas est-il reconnu dans l'hypothèse fournie?) et la pertinence appropriée (quel est l'investissement à fournir dans la collecte et l'exploitation de la trace pour le bénéfice attendu au niveau de l'investigation/renseignement?). Tout ce processus de signification se base sur des observations et un raisonnement conjectural soumis à de nombreuses influences. Dans cette étude, la pertinence en science forensique se formalise sous les traits d'une dimension conventionnelle, symbolisée, conditionnée par le contexte, la pratique de l'investigateur forensique et la culture du milieu ; en somme cette recherche avance que la pertinence est le fruit d'une interaction entre des paramètres d'ordre situationnel, structurel (ou organisationnel) et individuel. Garantir la détection, la collecte et l'exploitation des traces pertinentes sur les lieux dépend de la connaissance et d'une culture maîtrisées par le forensicien. Dans l'étude du rapport trace pertinente-investigateur forensique, la présente recherche pose le modèle SFE comme une carte conceptuelle illustrant trois grands axes d'acquisition de la connaissance et de la culture forensiques intervenant dans la recherche et l'évaluation de la trace pertinente. Par l'analyse des données d'in- terventions et des entretiens, le rapport entre ces trois paramètres et la pertinence a été mis en évidence. S, pour savoir, incarne un rapport à la connaissance immédiate pour se faire une représentation d'une réalité à un instant donné, un point important pour une pertinence qui se comprend dans un contexte. F, pour formation, se conçoit dans son rapport à la pertinence via cette culture qui tend à s'institutionnaliser (soit une connaissance théorique). Quant au paramètre E, pour expérience, il se comprend dans son rapport à la pertinence dans cet ajustement des stratégies d'intervention (soit une connaissance pratique) de chaque praticien ayant modulé leur travail au regard des succès et échecs enregistrés cas après cas. F et E formeraient la bibliothèque de ressources permettant le processus de reconnaissance sémiotique et S assurerait la contextualisation nécessaire pour poser le raisonnement et formuler les hypothèses explicatives pour les traces détectées et questionnées dans leur pertinence. Ce travail démontre que la pertinence n'est pas absolue. Elle est temporelle et contextuelle, c'est une dimension conventionnelle relative et interprétée qui se doit d'être discutée. C'est là que repose toute la problématique de la signification de ce qui est pertinent pour chaque participant du processus d'investigation. En proposant une lecture par étapes du processus de signification depuis la trace à l'indice, l'étude vise à offrir une compréhension plus poussée du raisonnement et de son fonctionnement pour renforcer la formation des intervenants forensiques. Cette recherche présente ainsi un ensemble d'outils critiques à portée tant pédagogiques que pratiques pour la gestion des lieux tout en identifiant des influences-clé jouées par des dimensions individuelles, structurelles et situationnelles.