322 resultados para problème respiratoire
Resumo:
Pour connaître le devenir à long terme des patients intubés pour état de mal asthmatique, nous avons recontacté en 1990 les 34 patients qui avaient présenté, entre 1978 et 1988, quarante épisodes de détresse respiratoire aiguë. Deux patients sont vivants mais ont été perdus de vue, 3 sont morts dont un seul d'état de mal asthmatique 6 mois après l'épisode initial. Des 29 patients restants (7 hommes et 22 femmes, âge moyen de 48,5 ans) représentant un suivi moyen de 9,6 ans, quinze n'ont jamais été réhospitalisés; des 14 autres, seuls 5 ont requis une intubation et une ventilation mécanique lors d'un épiode ultérieur. La majorité des hospitalisations ultérieures (81%) sont survenues dans les 6 ans suivant l'épiode initial
Resumo:
L'article «Capacité de travail et assurance invalidité » [1] décrit le malaise actuel concernant la réhabilitation à la place de travail. Cette problématique n'est toutefois pas uniquement valable pour des incapacités de travail liées à des raisons psychiques, mais aussi pour des incapacités de travail dues à des troubles musculo-squelettiques. De plus, les difficultés de réhabilitation à la place de travail ne doivent pas être imputées uniquement à l'assurance invalidité. En effet, elles sont dues d'une part à des données structurelles de la Suisse (comme une faible implantation de la médecine du travail dans les entreprises et un accès peu développé à la médecine de réhabilitation) et d'autre part, à un manque de définition claire de répartition des coûts ou des responsabilités. Dans son article R. Conne décrit de façon pertinente le malaise existant en Suisse en ce qui concerne la question de la réhabilitation à la place de travail ou de la récupération de sa capacité de travail. Toutefois, cet article se base principalement sur des incapacités de travail dues à des causes psychiques. En temps que médecin du travail et médecin en réhabilitation, nous souhaitons nous emparer de la discussion et l'élargir. Cet élargissement comprend d'une part la prise en compte d'incapacités de travail pour des causes non psychiques et d'autre part, la situation générale des assurances en Suisse. En effet, plutôt que de se focaliser uniquement sur le problème de l'assurance invalidité, il nous semble utile d'étendre le débat à la situation générale des assurances. [Auteurs]
Resumo:
Introduction: Suite à la canicule de 2003, l'importance pour la santé publique des vagues de chaleur avait été mise en évidence. Cependant, les aspects se rapportant aux médicaments avaient été peu abordés, avant d'être davantage considérés mi-2004, notamment dans le «Plan canicule» français. La Pharmacie de l'ICHV s'est donc efforcée, au printemps 2004, de définir ses propres lignes d'action pour adapter son organisation et ses services. Objectifs: Définir au niveau des services pharmaceutiques, en particulier cliniques, des recommandations pratiques et proposer des moyens de mise en oeuvre. Méthode: Une recherche de littérature a été effectuée et a permis d'identifier les variables à prendre en compte. Basée sur celles-ci, une analyse ponctuelle (sur une journée) a été conduite à l'aide du dossier patient informatisé Phoenix® pour estimer la fréquence d'utilisation des médicaments à problème auprès d'une population considérée comme étant à risque (patients > 70 ans d'un service de chirurgie). Dans le domaine logistique, une recherche similaire a été conduite et des analyses à l'aide du logiciel Opale® ont été réalisées. Résultats: Compte tenu de la littérature, différentes variables en relation avec la pharmacothérapie sont à considérer: * Médicaments à risque (altérant la fonction rénale ou empêchant la perte calorique) ou à surveiller (dont la déshydratation influence la pharmacocinétique ou ceux aggravant les effets de la chaleur); * Patients à risque (> 70 ans ou déments); * Situations à risque (chirurgie élective, sortie d'hôpital). L'analyse en chirurgie a montré que 75% des patients étaient traités par des médicaments à risque et que 100% des patients recevaient des médicaments à surveiller. Au plan logistique, notre recherche a permis de définir un certain nombre de produits sensibles. Discussion-conclusion: Malgré les limites de cette analyse ponctuelle, mais compte tenu de la fréquence d'utilisation des médicaments à problème, le pharmacien doit, lors de canicules, pouvoir directement ou indirectement conseiller le prescripteur, p. ex., en: * relevant dans les dossiers, les patients, les situations et les médicaments à risque ou à surveiller et en formulant des propositions de prise en charge; * suivant systématiquement les fonctions rénales de ces patients; * proposant d'instaurer une alarme dans les dossiers informatisés pour aider à déceler les situations à risque. Au niveau de la pharmacie centrale et des pharmacies d'étage, la gestion de stock des produits sensibles requière diverses améliorations. La canicule constitue une problématique complexe et le pharmacien d'hôpital se doit d'y prêter attention dans ses activités. La pharmacie de l'ICHV, sur la base de ces éléments, va préparer un plan d'action à activer dans des conditions à convenir avec la direction et les hôpitaux.
Resumo:
Rapport de synthèseLe syndrome d'apnées obstructives du sommeil (SAOS) est une pathologie respiratoire fréquente. Sa prévalence est estimée entre 2 et 5% de la population adulte générale. Ses conséquences sont importantes. Notamment, une somnolence diurne, des troubles de la concentration, des troubles de la mémoire et une augmentation du risque d'accident de la route et du travail. Il représente également un facteur de risque cardiovasculaire indépendant.Ce syndrome est caractérisé par la survenue durant le sommeil d'obstructions répétées des voies aériennes supérieures. L'arrêt ou la diminution d'apport en oxygène vers les poumons entraîne des épisodes de diminution de la saturation en oxygène de l'hémoglobine. Les efforts ventilatoires visant à lever l'obstacle présent sur les voies aériennes causent de fréquents réveils à l'origine d'une fragmentation du sommeil.La polysomnographie (PSG) représente le moyen diagnostic de choix. Il consiste en l'enregistrement dans un laboratoire du sommeil et en présence d'un technicien diplômé, du tracé électroencéphalographique (EEG), de l'électrooculogramme (EOG), de l'électromyogramme mentonnier (EMG), du flux respiratoire nasal, de l'oxymétrie de pouls, de la fréquence cardiaque, de l'électrocardiogramme (ECG), des mouvements thoraciques et abdominaux, de la position du corps et des mouvements des jambes. L'examen est filmé par caméra infrarouge et les sons sont enregistrés.Cet examen permet entre autres mesures, de déterminer les événements respiratoires obstructifs nécessaires au diagnostic de syndrome d'apnée du sommeil. On définit une apnée lors d'arrêt complet du débit aérien durant au moins 10 secondes et une hypopnée en cas, soit de diminution franche de l'amplitude du flux respiratoire supérieure à 50% durant au moins 10 secondes, soit de diminution significative (20%) de l'amplitude du flux respiratoire pendant au minimum 10 secondes associée à un micro-éveil ou à une désaturation d'au moins 3% par rapport à la ligne de base. La détection des micro-éveils se fait en utilisant les dérivations électroencéphalographiques, électromyographiques et électrooculographiques. Il existe des critères visuels de reconnaissance de ces éveils transitoire: apparition de rythme alpha (8.1 à 12.0 Hz) ou beta (16 à 30 Hz) d'une durée supérieure à 3 secondes [20-21].Le diagnostic de S AOS est retenu si l'on retrouve plus de 5 événements respiratoires obstructifs par heure de sommeil associés soit à une somnolence diurne évaluée selon le score d'Epworth ou à au moins 2 symptômes parmi les suivants: sommeil non réparateur, étouffements nocturne, éveils multiples, fatigue, troubles de la concentration. Le S AOS est gradué en fonction du nombre d'événements obstructifs par heure de sommeil en léger (5 à 15), modéré (15 à 30) et sévère (>30).La polysomnographie (PSG) comporte plusieurs inconvénients pratiques. En effet, elle doit être réalisée dans un laboratoire du sommeil avec la présence permanente d'un technicien, limitant ainsi son accessibilité et entraînant des délais diagnostiques et thérapeutiques. Pour ces mêmes raisons, il s'agit d'un examen onéreux.La polygraphie respiratoire (PG) représente l'alternative diagnostique au gold standard qu'est l'examen polysomnographique. Cet examen consiste en l'enregistrement en ambulatoire, à savoir au domicile du patient, du flux nasalrespiratoire, de l'oxymétrie de pouls, de la fréquence cardiaque, de la position du corps et du ronflement (par mesure de pression).En raison de sa sensibilité et sa spécificité moindre, la PG reste recommandée uniquement en cas de forte probabilité de SAOS. Il existe deux raisons principales à l'origine de la moindre sensibilité de l'examen polygraphique. D'une part, du fait que l'état de veille ou de sommeil n'est pas déterminé avec précision, il y a dilution des événements respiratoires sur l'ensemble de l'enregistrement et non sur la période de sommeil uniquement. D'autre part, en l'absence de tracé EEG, la quantification des micro-éveils est impossible. Il n'est donc pas possible dans l'examen poly graphique, de reconnaître une hypopnée en cas de diminution de flux respiratoire de 20 à 50% non associée à un épisode de désaturation de l'hémoglobine de 3% au moins. Alors que dans l'examen polysomnographique, une telle diminution du flux respiratoire pourrait être associée à un micro-éveil et ainsi comptabilisée en tant qu'hypopnée.De ce constat est né la volonté de trouver un équivalent de micro-éveil en polygraphie, en utilisant les signaux à disposition, afin d'augmenter la sensibilité de l'examen polygraphique.Or plusieurs études ont démontrés que les micro-éveils sont associés à des réactions du système nerveux autonome. Lors des micro-éveils, on met en évidence la survenue d'une vasoconstriction périphérique. La variation du tonus sympathique associée aux micro-éveils peut être mesurée par différentes méthodes. Les variations de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie représentant un marqueur fiable de la vasoconstriction périphérique associée aux micro-réveils, il paraît donc opportun d'utiliser ce marqueur autonomique disponible sur le tracé des polygraphies ambulatoires afin de renforcer la sensibilité de cet examen.Le but de l'étude est d'évaluer la sensibilité des variations de l'amplitude de l'onde de pouls pour détecter des micro-réveils corticaux afin de trouver un moyen d'augmenter la sensibilité de l'examen polygraphique et de renforcer ainsi sont pouvoir diagnostic.L'objectif est de démontrer qu'une diminution significative de l'amplitude de l'onde pouls est concomitante à une activation corticale correspondant à un micro¬réveil. Cette constatation pourrait permettre de déterminer une hypopnée, en polygraphie, par une diminution de 20 à 50% du flux respiratoire sans désaturation de 3% mais associée à une baisse significative de l'amplitude de pouls en postulant que l'événement respiratoire a entraîné un micro-réveil. On retrouve par cette méthode les mêmes critères de scoring d'événements respiratoires en polygraphie et en polysomnographie, et l'on renforce la sensibilité de la polygraphie par rapport au gold standard polysomnographique.La méthode consiste à montrer en polysomnographie qu'une diminution significative de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie est associée à une activation du signal électroencéphalographique, en réalisant une analyse spectrale du tracé EEG lors des baisses d'amplitude du signal d'onde de pouls.Pour ce faire nous avons réalisé une étude rétrospective sur plus de 1000 diminutions de l'amplitude de l'onde de pouls sur les tracés de 10 sujets choisis de manière aléatoire parmi les patients référés dans notre centre du sommeil (CIRS) pour suspicion de trouble respiratoire du sommeil avec somnolence ou symptomatologie diurne.Les enregistrements nocturnes ont été effectués de manière standard dans des chambres individuelles en utilisant le système d'acquisition Embla avec l'ensemble des capteurs habituels. Les données ont été par la suite visuellement analysées et mesurées en utilisant le software Somnologica version 5.1, qui fournit un signal de l'amplitude de l'onde de pouls (puise wave amplitude - PWA).Dans un premier temps, un technicien du sommeil a réalisé une analyse visuelle du tracé EEG, en l'absence des données du signal d'amplitude d'onde de pouls. Il a déterminé les phases d'éveil et de sommeil, les stades du sommeil et les micro¬éveils selon les critères standards. Les micro-éveils sont définis lors d'un changement abrupt dans la fréquence de l'EEG avec un pattern d'ondes thêta-alpha et/ou une fréquence supérieure à 16 Hz (en l'absence de fuseau) d'une durée d'au minimum trois secondes. Si cette durée excède quinze secondes, l'événement correspond à un réveil.Puis, deux investigateurs ont analysé le signal d'amplitude d'onde de pouls, en masquant les données du tracé EEG qui inclut les micro-éveils. L'amplitude d'onde de pouls est calculée comme la différence de valeur entre le zénith et le nadir de l'onde pour chaque cycle cardiaque. Pour chaque baisse de l'amplitude d'onde de pouls, la plus grande et la plus petite amplitude sont déterminées et le pourcentage de baisse est calculé comme le rapport entre ces deux amplitudes. On retient de manière arbitraire une baisse d'au moins 20% comme étant significative. Cette limite a été choisie pour des raisons pratiques et cliniques, dès lors qu'elle représentait, à notre sens, la baisse minimale identifiable à l'inspection visuelle. Chaque baisse de PWA retenue est divisée en 5 périodes contiguës de cinq secondes chacune. Deux avant, une pendant et deux après la baisse de PWA.Pour chaque période de cinq secondes, on a pratiqué une analyse spectrale du tracé EEG correspondant. Le canal EEG C4-A1 est analysé en utilisant la transformée rapide de Fourier (FFT) pour chaque baisse de PWA et pour chaque période de cinq secondes avec une résolution de 0.2 Hz. La distribution spectrale est catégorisée dans chaque bande de fréquence: delta (0.5 à 4.0 Hz); thêta (4.1 à 8.0Hz); alpha (8.1 à 12.0 Hz); sigma (12.1 à 16 Hz) et beta (16.1 à 30.0 Hz). La densité de puissance (power density, en μΥ2 ) pour chaque bande de fréquence a été calculée et normalisée en tant que pourcentage de la puissance totale. On a déterminé, ensuite, la différence de densité de puissance entre les 5 périodes par ANOVA on the rank. Un test post hoc Tukey est été utilisé pour déterminer si les différences de densité de puissance étaient significatives. Les calculs ont été effectués à l'aide du software Sigmastat version 3.0 (Systat Software San Jose, California, USA).Le principal résultat obtenu dans cette étude est d'avoir montré une augmentation significative de la densité de puissance de l'EEG pour toutes les bandes de fréquence durant la baisse de l'amplitude de l'onde de pouls par rapport à la période avant et après la baisse. Cette augmentation est par ailleurs retrouvée dans la plupart des bande de fréquence en l'absence de micro-réveil visuellement identifié.Ce résultat témoigné donc d'une activation corticale significative associée à la diminution de l'onde de pouls. Ce résulat pourrait permettre d'utiliser les variations de l'onde de pouls dans les tracés de polygraphie comme marqueur d'une activation corticale. Cependant on peut dire que ce marqueur est plus sensible que l'analyse visuelle du tracé EEG par un technicien puisque qu'on notait une augmentation de lactivité corticale y compris en l'absence de micro-réveil visuellement identifié. L'application pratique de ces résultats nécessite donc une étude prospective complémentaire.
Resumo:
La fracture de hanche chez la personne âgée reste un problème de santé publique. Elle est la conséquence d'une chute neuf fois sur dix et survient chez des personnes fragilisées par une ostéoporose, une sarcopénie, une dénutrition. Dans un service de traumatologie, la dénutrition protéino-énergétique est fréquente. Présente dès l'admission chez environ un patient sur deux, elle va souvent s'aggraver pendant le séjour hospitalier et favoriser la survenue de complications. Une prise en charge nutritionnelle doit impliquer une équipe multidisciplinaire qu'il faut coordonner. Elle doit être envisagée précocement pendant le séjour hospitalier et privilégier la voie orale. L'assistance nutritionnelle sous forme de CNO a prouvé son efficacité dans la réduction de la morbidité postopératoire. Son impact sur la mortalité, sur le pronostic fonctionnel et social reste discuté. Il faudra attendre l'étude de nouvelles cohortes dans lesquelles la compliance au traitement est nettement améliorée avant de conclure de manière définitive.
Resumo:
La présente recherche se propose de désobstruer un certain nombre de catégories « esthétiques », au sens étendu du terme, de leur métaphysique implicite. La thèse que je souhaite défendre se présente sous la forme d'un paradoxe : d'une part, le sens originel d'« esthétique » a été perdu de vue, d'autre part, malgré cet oubli, quiconque s'interroge philosophiquement sur les beaux-arts reçoit, nolens volens, Baumgarten en héritage. Avec AEsthetica (1750/1758), ouvrage inachevé et hautement problématique, nous pourrions dire, citant René Char, qu'il s'agit-là d'un « héritage précédé d'aucun testament ». En d'autres termes, ce qui nous échoit nous occupe, voire nous préoccupe, sans que nous disposions des outils conceptuels pour nous y rapporter librement. Soyons clairs, je ne soutiens pas que l'esthétique philosophique, telle qu'elle s'énonce à ses débuts, soit un passage obligé pour penser l'art, et ce d'autant plus qu'il ne s'agit pas d'un passage, mais proprement d'une impasse. Ce que je veux dire, c'est que Kant répond à Baumgarten, et que Hegel répond à Kant et ainsi de suite. Il n'y a pas de tabula rasa dans l'histoire de la pensée, et l'oubli de l'historicité d'une pensée est le meilleur moyen de la neutraliser en simple supplément culturel, tout en demeurant entièrement captifs de ses présupposés.Au départ, la question qui motivait implicitement la rédaction de cette recherche se formulait ainsi : « Dans quelle mesure la philosophie énonce-t-elle quelque chose d'important au sujet des beaux-arts ? » Au fil du temps, la question s'est inversée pour devenir : « Qu'est-ce que les écrits sur les beaux- arts, tels qu'ils foisonnent au 18e siècle, nous enseignent à propos de la philosophie et des limites inhérentes à sa manière de questionner ?» Et gardons-nous de penser qu'une telle inversion cantonne la question de l'esthétique, au sens très large du terme, à n'être qu'une critique immanente à l'histoire de la philosophie. Si la philosophie était une « discipline » parmi d'autres, un « objet » d'étude possible dans la liste des matières universitaires à choix, elle ne vaudrait pas, à mon sens, une seule heure de peine. Mais c'est bien parce que la philosophie continue à orienter la manière dont nous nous rapportons au « réel », au « monde » ou à l'« art » - je place les termes entre guillemets pour indiquer qu'il s'agit à la fois de termes usuels et de concepts philosophiques - que les enjeux de la question de l'esthétique, qui est aussi et avant tout la question du sentir, excèdent l'histoire de la philosophie.Pour introduire aux problèmes soulevés par l'esthétique comme discipline philosophique, j'ai commencé par esquisser à grands traits la question du statut de l'image, au sens le plus général du terme. Le fil conducteur a été celui de l'antique comparaison qui conçoit la poésie comme une « peinture parlante » et la peinture comme une « poésie muette ». Dans le prolongement de cette comparaison, le fameux adage ut pictura poesis erit a été conçu comme le véritable noeud de toute conception esthétique à venir.Il s'est avéré nécessaire d'insister sur la double origine de la question de l'esthétique, c'est-à-dire la rencontre entre la pensée grecque et le christianisme. En effet, l'un des concepts fondamentaux de l'esthétique, le concept de création et, plus spécifiquement la possibilité d'une création ex nihiio, a été en premier lieu un dogme théologique. Si j'ai beaucoup insisté sur ce point, ce n'est point pour établir une stricte identité entre ce dogme théologique et le concept de création esthétique qui, force est de l'admettre, est somme toute souvent assez flottant dans les écrits du 18e siècle. L'essor majeur de la notion de création, couplée avec celle de génie, sera davantage l'une des caractéristiques majeures du romantisme au siècle suivant. La démonstration vise plutôt à mettre en perspective l'idée selon laquelle, à la suite des théoriciens de l'art de la Renaissance, les philosophes du Siècle des Lumières ont accordé au faire artistique ou littéraire une valeur parfaitement inédite. Si l'inventeur du terme « esthétique » n'emploie pas explicitement le concept de création, il n'en demeure pas moins qu'il attribue aux poètes et aux artistes le pouvoir de faire surgir des mondes possibles et que ceux-ci, au même titre que d'autres régions de l'étant, font l'objet d'une saisie systématique qui vise à faire apparaître la vérité qui leur est propre. Par l'extension de l'horizon de la logique classique, Baumgarten inclut les beaux-arts, à titre de partie constituante des arts libéraux, comme objets de la logique au sens élargi du terme, appelée « esthético- logique ». L'inclusion de ce domaine spécifique d'étants est justifiée, selon les dires de son auteur, par le manque de concrétude de la logique formelle. Or, et cela n'est pas le moindre des paradoxes de l'esthétique, la subsomption des beaux-arts sous un concept unitaire d'Art et la portée noétique qui leur est conférée, s'opère à la faveur du sacrifice de leur singularité et de leur spécificité. Cela explique le choix du titre : « métaphysique de l'Art » et non pas « métaphysique de l'oeuvre d'art » ou « métaphysique des beaux-arts ». Et cette aporîe constitutive de la première esthétique est indépassable à partir des prémices que son auteur a établies, faisant de la nouvelle discipline une science qui, à ce titre, ne peut que prétendre à l'universalité.Au 18e siècle, certaines théories du beau empruntent la voie alternative de la critique du goût. J'ai souhaité questionner ces alternatives pour voir si elles échappent aux problèmes posés par la métaphysique de l'Art. Ce point peut être considéré comme une réplique à Kant qui, dans une note devenue célèbre, soutient que « les Allemands sont les seuls à se servir du mot "esthétique" pour désigner ce que d'autres appellent la critique du goût ». J'ai démontré que ces deux termes ne sont pas synonymes bien que ces deux positions philosophiques partagent et s'appuient sur des présupposés analogues.La distinction entre ces deux manières de penser l'art peut être restituée synthétiquement de la sorte : la saisie systématique des arts du beau en leur diversité et leur subsomption en un concept d'Art unitaire, qui leur attribue des qualités objectives et une valeur de vérité indépendante de toute saisie subjective, relègue, de facto, la question du jugement de goût à l'arrière-plan. La valeur de vérité de l'Art, définie comme la totalité des qualités intrinsèques des oeuvres est, par définition, non tributaire du jugement subjectif. Autrement dit, si les oeuvres d'art présentent des qualités intrinsèques, la question directrice inhérente à la démarche de Baumgarten ne peut donc nullement être celle d'une critique du goût, comme opération subjective {Le. relative au sujet, sans que cela soit forcément synonyme de « relativisme »), mais bien la quête d'un fondement qui soit en mesure de conférer à l'esthétique philosophique, en tant que métaphysique spéciale, sa légitimité.Ce qui distingue sur le plan philosophique le projet d'une métaphysique de l'Art de celui d'une esthétique du goût réside en ceci que le premier est guidé, a priori, par la nécessité de produire un discours valant universellement, indépendant des oeuvres d'art, tandis que le goût, pour s'exercer, implique toujours une oeuvre singulière, concrète, sans laquelle celui-ci ne reste qu'à l'état de potentialité. Le goût a trait au particulier et au contingent, sans être pour autant quelque chose d'aléatoire. En effet, il n'est pas un véritable philosophe s'interrogeant sur cette notion qui n'ait entrevu, d'une manière ou d'une autre, la nécessité de porter le goût à la hauteur d'un jugement, c'est-à-dire lui conférer au moins une règle ou une norme qui puisse le légitimer comme tel et le sauver du relativisme, pris en son sens le plus péjoratif. La délicatesse du goût va même jusqu'à être tenue pour une forme de « connaissance », par laquelle les choses sont appréhendées dans toute leur subtilité. Les différents auteurs évoqués pour cette question (Francis Hutcheson, David Hume, Alexander Gerard, Louis de Jaucourt, Montesquieu, Voltaire, D'Alembert, Denis Diderot, Edmund Burke), soutiennent qu'il y a bien quelque chose comme des « normes » du goût, que celles-ci soient inférées des oeuvres de génie ou qu'elles soient postulées a priori, garanties par une transcendance divine ou par la bonté de la Nature elle-même, ce qui revient, en dernière instance au même puisque le geste est similaire : rechercher dans le suprasensible, dans l'Idée, un fondement stable et identique à soi en mesure de garantir la stabilité de l'expérience du monde phénoménal.La seconde partie de la recherche s'est articulée autour de la question suivante : est-ce que les esthétiques du goût qui mesurent la « valeur » de l'oeuvre d'art à l'aune d'un jugement subjectif et par l'intensité du sentiment échappent aux apories constitutives de la métaphysique de l'Art ?En un sens, une réponse partielle à cette question est déjà contenue dans l'expression « esthétique du goût ». Cette expression ne doit pas être prise au sens d'une discipline ou d'un corpus unifié : la diversité des positions présentées dans cette recherche, bien que non exhaustive, suffit à le démontrer. Mais ce qui est suggéré par cette expression, c'est que ces manières de questionner l'art sont plus proches du sens original du terme aisthêsis que ne l'est la première esthétique philosophique de l'histoire de la philosophie. L'exercice du goût est une activité propre du sentir qui, en même temps, est en rapport direct avec la capacité intellectuelle à discerner les choses et à un juger avec finesse et justesse.Avec le goût esthétique s'invente une espèce de « sens sans organe » dont la teneur ontologique est hybride, mais dont le nom est identique à celui des cinq sens qui procurent la jouissance sensible la plus immédiate et la moins raisonnable qui soit. Par la reconnaissance de l'existence d'un goût « juste » et « vrai », ou à défaut, au moins de l'existence d'une « norme » indiscutable de celui-ci, c'est-à-dire de la possibilité de formuler un jugement de goût une tentative inédite de spîritualisation de la sensibilité a lieu.Par conséquent, il est loin d'être évident que ce que j'ai appelé les esthétiques du goût échappent à un autre aspect aporétique de la métaphysique de l'Art, à savoir : passer à côté du caractère singulier de telle ou telle oeuvre afin d'en dégager les traits universels qui permettent au discours de s'étayer. Dans une moindre mesure, cela est même le cas dans les Salons de Diderot où, trop souvent, le tableau sert de prétexte à l'élaboration d'un discours brillant.Par contre, tout l'intérêt de la question du goût réside en ceci qu'elle présente, de façon particulièrement aiguë, les limites proprement métaphysiques dont l'esthétique, à titre de discipline philosophique, se fait la légataire et tente à sa manière d'y remédier par une extension inédite du concept de vérité et sa caractérisai ion en termes de vérité « esthéticologique » au paragraphe 427 de Y Esthétique. Cela dit, le fait même que dans l'empirisme la sensibilité s'oppose, une fois de plus, à l'intellect comme source de la naissance des idées - même si c'est dans la perspective d'une réhabilitation de la sensibilité -, indique que l'horizon même de questionnement demeure inchangé. Si le goût a pu enfin acquérir ses lettres de noblesse philosophique, c'est parce qu'il a été ramené, plus ou moins explicitement, du côté de la raison. Le jugement portant sur les arts et, de manière plus générale, sur tout ce qui est affaire de goût ne saurait se limiter au sentiment de plaisir immédiat. Le vécu personnel doit se transcender en vertu de critères qui non seulement permettent de dépasser le relativisme solipsiste, mais aussi de donner forme à l'expérience vécue afin qu'elle manifeste à chaque fois, et de façon singulière, une portée universelle.Le goût, tel qu'il devient un topos des discours sur l'art au 18e siècle, peut, à mon sens, être interprété comme l'équivalent de la glande pinéale dans la physiologie cartésienne : l'invention d'un « je ne sais quoi » situé on ne sait où, sorte d'Hermès qui assure la communication entre l'âme et le corps et sert l'intermédiaire entre l'intellect et la sensibilité. L'expérience décrite dans l'exercice du goût implique de facto une dimension par définition occultée par la métaphysique de l'Art : le désir. Pour goûter, il faut désirer et accepter d'être rempli par l'objet de goût. Dans l'exercice du goût, le corps est en jeu autant que l'intellect, il s'agit d'une expérience totale dans laquelle aucune mise à distance théorétique n'est, en un premier temps, à même de nous prémunir de la violence des passions qui nous affectent. L'ambiguïté de cette notion réside précisément dans son statut ontologiquement problématique. Mais cette incertitude est féconde puisqu'elle met en exergue le caractère problématique de la distinction entre corps et esprit. Dans la notion de goût est contenue l'idée que le corps pense aussi et que, par voie de conséquence, la sensibilité n'est pas dépourvue de dimension spirituelle. Reste que formuler les choses de la sorte revient à rejouer, en quelque sorte, l'antique diaphorâ platonicienne et à convoquer, une fois de plus, les grandes oppositions métaphysiques telles que corps et âme, sensible et intelligible, matière et forme.La troisième partie est entièrement consacrée à Shaftesbury qui anticipe le statut ontologiquement fort de l'oeuvre d'art (tel qu'il sera thématisé par Baumgarten) et l'allie à une critique du goût. Cet auteur peut être considéré comme une forme d'exception qui confirme la règle puisque sa métaphysique de l'Art laisse une place prépondérante à une critique du goût. Mais le cumul de ces deux caractéristiques opposées un peu schématiquement pour les besoins de la démonstration n'invalide pas l'hypothèse de départ qui consiste à dire que la saisie philosophique de la question du goût et l'invention conjointe de l'esthétique au 18e siècle sont deux tentatives de trouver une issue au problème du dualisme des substances.Cette recherche doit être prise comme une forme de propédeutique à la fois absolument nécessaire et parfaitement insuffisante. Après Baumgarten et le siècle du goût philosophique, les propositions de dépassement des apories constitutives d'une tradition qui pense l'art à partir de couples d'oppositions métaphysiques tels qu'âme et corps, forme et matière, ainsi que leurs traductions dans les arts visuels (dessin et couleur ou encore figuration et abstraction), n'ont pas manqué. Il aurait fallu in fine s'effacer pour laisser la place aux plasticiens eux-mêmes, mais aussi aux poètes, non plus dans l'horizon de Y ut pictura, mais lorsqu'ils expriment, sans verser dans l'analyse conceptuelle, leurs rencontres avec telle ou telle oeuvre (je pense à Baudelaire lorsqu'il évoque Constantin Guys, à Charles Ferdinand Ramuz lorsqu'il rend hommage à Cézanne ou encore à Pascal Quignard lorsqu'il raconte les fresques de la maison des Dioscures à Pompéi, pour ne citer que trois noms qui affleurent immédiatement à ma mémoire tant leur souvenir est vivace et leur exemple un modèle). Et puis il s'agit, malgré tout, de ne pas renoncer pour autant au discours esthétique, c'est- à-dire à la philosophie, mais de réinterroger les catégories dont nous sommes les légataires et de penser avec et au-delà des limites qu'elles nous assignent. Mais cela ferait l'objet d'un autre ouvrage.
Resumo:
L'imagerie est de plus en plus utilisée en médecine forensique. Actuellement, les connaissances nécessaires pour interpréter les images post mortem sont faibles et surtout celles concernant les artéfacts post mortem. Le moyen radiologique le plus utilisé en médecine légale est la tomodensitométrie multi-coupes (TDMC). Un de ses avantages est la détection de gaz dans le corps. Cette technique est utile au diagnostic d'embolie gazeuse mais sa très grande sensibilité rend visible du gaz présent même en petite quantité. Les premières expériences montrent que presque tous les corps scannés présentent du gaz surtout dans le système vasculaire. Pour cette raison, le médecin légiste est confronté à un nouveau problème : la distinction entre du gaz d'origine post-mortem et une embolie gazeuse vraie. Pour parvenir à cette distinction, il est essentiel d'étudier la distribution de ces gaz en post mortem. Aucune étude systématique n'a encore été réalisée à ce jour sur ce sujet.¦Nous avons étudié l'incidence et la distribution des gaz présents en post mortem dans les vaisseaux, dans les os, dans les tissus sous-cutanés, dans l'espace sous-dural ainsi que dans les cavités crânienne, thoracique et abdominale (82 sites au total) de manière à identifier les facteurs qui pourraient distinguer le gaz post-mortem artéfactuel d'une embolie gazeuse¦Les données TDMC de 119 cadavres ont été étudiées rétrospectivement. Les critères d'inclusion des sujets sont l'absence de lésion corporelle permettant la contamination avec l'air extérieur, et, la documentation du délai entre le moment du décès et celui du CT-scan (p.ex. rapport de police, protocole de réanimation ou témoin). La présence de gaz a été évaluée semi-quantitativement par deux radiologues et codifiée. La codification est la suivante : grade 0 = pas de gaz, grade 1 = une à quelques bulles d'air, grade 2 = structure partiellement remplie d'air, grade 3 = structure complètement remplie d'air.¦Soixante-quatre des 119 cadavres présentent du gaz (62,2%), et 56 (75,7%) ont montré du gaz dans le coeur. Du gaz a été détecté le plus fréquemment dans le parenchyme hépatique (40%); le coeur droit (ventricule 38%, atrium 35%), la veine cave inférieure (infra-rénale 30%, supra-rénale 26%), les veines sus-hépatiques (gauche 26%, moyenne 29%, droite 22 %), et les espaces du porte (29%). Nous avons constaté qu'une grande quantité de gaz liée à la putréfaction présente dans le coeur droit (grade 3) est associée à des collections de gaz dans le parenchyme hépatique (sensibilité = 100%, spécificité = 89,7%). Pour décrire nos résultats, nous avons construit une séquence d'animation qui illustre le processus de putréfaction et l'apparition des gaz à la TDMC post-mortem.¦Cette étude est la première à montrer que l'apparition post-mortem des gaz suit un modèle de distribution spécifique. L'association entre la présence de gaz intracardiaque et dans le parenchyme hépatique pourrait permettre de distinguer du gaz artéfactuel d'origine post-mortem d'une embolie gazeuse vraie. Cette étude fournit une clé pour le diagnostic de la mort due à une embolie gazeuse cardiaque sur la base d'une TDMC post-mortem.¦Abstract¦Purpose: We investigated the incidence and distribution of post-mortem gas detected with multidetector computed tomography (MDCT) to identify factors that could distinguish artifactual gas from cardiac air embolism.¦Material and Methods: MDCT data of 119 cadavers were retrospectively examined. Gas was semiquantitatively assessed in selected blood vessels, organs and body spaces (82 total sites).¦Results: Seventy-four of the 119 cadavers displayed gas (62.2%; CI 95% 52.8 to 70.9), and 56 (75.7%) displayed gas in the heart. Most gas was detected in the hepatic parenchyma (40%); right heart (38% ventricle, 35% atrium), inferior vena cava (30% infrarenally, 26% suprarenally), hepatic veins (26% left, 29% middle, 22% right), and portal spaces (29%). Male cadavers displayed gas more frequently than female cadavers. Gas was detected 5-84 h after death; therefore, the post-mortem interval could not reliably predict gas distribution (rho=0.719, p<0.0001). We found that a large amount of putrefaction-generated gas in the right heart was associated with aggregated gas bubbles in the hepatic parenchyma (sensitivity = 100%, specificity = 89.7%). In contrast, gas in the left heart (sensitivity = 41.7%, specificity = 100%) or in peri-umbilical subcutaneous tissues (sensitivity = 50%, specificity = 96.3%) could not predict gas due to putrefaction.¦Conclusion: This study is the first to show that the appearance of post-mortem gas follows a specific distribution pattern. An association between intracardiac gas and hepatic parenchymal gas could distinguish between post- mortem-generated gas and vital air embolism. We propose that this finding provides a key for diagnosing death due to cardiac air embolism.
Resumo:
La contrefaçon de médicaments est un phénomène qui s'est amplifié ces dernières années et touche désormais toutes les régions du monde. Les réseaux de production et de distribution impliqués constituent de véritables industries. Malgré les répercussions dramatiques au niveau sanitaire et économique, les sanctions légales sont souvent inappropriées, non appliquées ou inapplicables. Les méthodes traditionnelles d'investigation, souffrant d'une absence de stratégie et de démarche structurée, sont partiellement désarmées face à ce problème. En tant que principales cibles économiques, les entreprises pharmaceutiques ont développé des mesures de protection de leurs produits ainsi que des méthodes analytiques pour différencier les contrefaçons des médicaments authentiques. Davantage d'informations peuvent néanmoins être révélées pour le renseignement à partir des données analytiques. Les saisies de contrefaçon représentent en effet les seules traces tangibles, les seuls témoins du problème. Dans cette optique le profilage des saisies, qui constitue le coeur de ce travail, est le meilleur moyen de détecter les productions organisées et industrialisées de cette forme de criminalité. L'étude porte sur plusieurs saisies d'un type de gélules Roche régulièrement visé par les contrefacteurs. Des éléments pertinents des gélules et de l'emballage contrefaits, intégrés à une banque de données organisée, ont permis de révéler de pertinentes informations. De nombreux liens, à l'origine inconnus, ont en effet pu être dévoilés et observés entre les saisies à différents niveaux de la production, soutenant l'hypothèse d'un réseau principal de contrefacteurs dominant le marché, alors même que le nombre de saisies à disposition était limité. L'interprétation des liens grâce aux informations circonstancielles a permis de fournir des indications sur la fabrication et la distribution des contrefaçons provenant de ce réseau. Cette approche, généralisable à d'autres types de médicament, est un témoignage du fort potentiel que possède le renseignement provenant des données analytiques pour la compréhension du crime organisé.
Resumo:
Summary Multicellular organisms have evolved the immune system to protect from pathogen such as viruses, bacteria, fungi or parasites. Detection of invading pathogens by the host innate immune system is crucial for mounting protective responses and depends on the recognition of microbial components by specific receptors. The results presented in this manuscript focus on the signaling pathways involved in the detection of viral infection by the sensing of viral nucleic acids. First, we describe a new regulatory mechanism controlling RNA-sensing antiviral pathways. Our results indicate that TRIF and Cardif, the crucial adaptor proteins for endosomal and cytoplasmic RNA detection signaling pathway, are processed and inactivated by caspases. The second aspect investigated here involves a signaling pathway triggered upon cytosolic DNA sensing. The interferon inducible protein DAI was recently described as a DNA sensor able to induce the activation of IRFs and NF-κΒ transcription factors leading to type I interferon production. Here we identify two RIP homotypic interaction motifs (RHIMs) in DAI and demonstrate that they mediate the recruitment of RIP1 and RIP3 and the subsequent NF-κΒ activation. Moreover, we observed that the mouse cytomegalovirus RHIM- containing protein M45 has the potential to block this signaling cascade by interfering with the formation of the DAI-RIP1/3 signaling complex. Finally, we report the generation and the initial characterization of NLRX1-deficient mice. NLRX1 is a member of the NOD-like receptor family localized to the mitochondria. The function of NLRX1 is still controversial: one study proposed that NLRX1 acts as an inhibitor of the RIG-like receptor (RLR) antiviral pathway by binding the adaptor protein Cardif, whereas another report implicated NLRX1 in the generation of reactive oxygen species (ROS) and the amplification of NF-κΒ and JNK triggered by TNF-α, poly(I:C) or Shigella infection. Collectively, our results indicate that NLRX1-deficiency does not affect RLR signaling nor TNF-α induced responses. Proteomics analysis identified UQCRC2, a subunit of the complex III of the mitochondrial respiratory chain, as a NLRX1 binding partner. This observation might reveal a possible functional link between NLRX1 and mitochondrial respiration and/or ROS generation. Résumé Au cours de l'évolution, les organismes multicellulaires ont développé le système immunitaire afin de se protéger contre les pathogènes. Une étape cruciale pour le déclenchement des réponses protectrices est la reconnaissance par les cellules du système immunitaire de molécules propres aux microbes grâce à des récepteurs spécifiques. Les résultats présentés dans cette thèse décrivent des nouveaux aspects concernant les voies de signalisation impliquées dans la détection des virus. Le premier projet décrit un mécanisme de régulation des voies activées par la détection d'ARN virale. Nos résultats montrent que TRIF et Cardif, des protéines adaptatrices des voies déclenchées par la reconnaissance de ces acides nucléiques au niveau des endosomes et du cytoplasme, sont clivés et inactivés par les caspases. Le projet suivant de notre recherche concerne une voie de signalisation activée par la détection d'ADN au niveau du cytoplasme. La protéine DAI a été récemment décrite comme un senseur pour cet ADN capable d'activer les facteurs de transcription IRF et NF-κΒ et d'induire ainsi la production des interférons de type I. Ici on démontre que DAI interagit avec RIP1 et RIP3 par le biais de domaines appelés RHIM et que ce complexe est responsable de l'activation de NF-κΒ. On a aussi identifié une protéine du cytomégalovirus de la souris, M45, qui contient ce même domaine et on a pu démontrer qu'elle a la capacité d'interférer avec la formation du complexe entre DAI et RIP1/RIP3 bloquant ainsi l'activation de NF-κΒ. Enfin on décrit ici la génération de souris déficientes pour le gène qui code pour la protéine NLRX1. Cette protéine fait partie de la famille des récepteurs NOD et est localisée dans la mitochondrie. Une étude a suggéré que NLRX1 agit comme un inhibiteur des voies antivirales activées par les récepteurs du type RIG-I (RLR) en interagissant avec la protéine adaptatrice Cardif. Une autre étude propose par contre que NLRX1 participe à la production des dérivés réactifs de l'oxygène et contribue ainsi à augmenter l'activation de NF- κΒ et JNK induite par le TNF-α ou le poly(I:C). Nos résultats montrent que l'absence de NLRX1 ne modifie ni la voie de signalisation RLR ni les réponses induites par le TNF-α. Des analyses ultérieures ont permis d'identifier comme partenaire d'interaction de NLRX1 la protéine UQCRC2, une des sous-unités qui composent le complexe III de la chaîne respiratoire mitochondriale. Cette observation pourrait indiquer un lien fonctionnel entre NLRX1 et la respiration mitochondriale ou la production des dérivés réactifs de l'oxygène au niveau de cette organelle.
Resumo:
Abstract In humans, the skin is the largest organ of the body, covering up to 2m2 and weighing up to 4kg in an average adult. Its function is to preserve the body from external insults and also to retain water inside. This barrier function termed epidermal permeability barrier (EPB) is localized in the functional part of the skin: the epidermis. For this, evolution has built a complex structure of cells and lipids sealing the surface, the stratum corneum. The formation of this structure is finely tuned since it is not only formed once at birth, but renewed all life long. This active process gives a high plasticity and reactivity to skin, but also leads to various pathologies. ENaC is a sodium channel extensively studied in organs like kidney and lung due to its importance in regulating sodium homeostasis and fluid volume. It is composed of three subunits α, ß and r which are forming sodium selective channel through the cell membrane. Its presence in the skin has been demonstrated, but little is known about its physiological role. Previous work has shown that αENaC knockout mice displayed an abnormal epidermis, suggesting a role in differentiation processes that might be implicated in the EPB. The principal aim of this thesis has been to study the consequences for EPB function in mice deficient for αENaC by molecular and physiological means and to investigate the underlying molecular mechanisms. Here, the barrier function of αENaC knockout pups is impaired. Apparently not immediately after birth (permeability test) but 24h later, when evident water loss differences appeared compared to wildtypes. Neither the structural proteins of the epithelium nor the tights junctions showed any obvious alterations. In contrary, stratum corneum lipid disorders are most likely responsible for the barrier defect, accompanied by an impairment of skin surface acidification. To analyze in details this EPB defect, several hypotheses have been proposed: reduced sensibility to calcium which is the key activator far epidermal formation, or modification of ENaC-mediated ion fluxes/currents inside the epidermis. The cellular localization of ENaC and the action in the skin of CAPl, a positive regulator of ENaC, have been also studied in details. In summary, this study clearly demonstrates that ENaC is a key player in the EPB maintenance, because αENaC knockout pups are not able to adapt to the new environment (ex utero) as efficiently as the wildtypes, most likely due to impaired of sodium handling inside the epidermis. Résumé Chez l'homme, la peau est le plus grand organe, couvrant presque 2m2 et pesant près de 4kg chez l'adulte. Sa fonction principale est de protéger l'organisme des agressions extérieures mais également de conserver l'eau à l'intérieur du corps. Cette fonction nommée barrière épithéliale est localisée dans la partie fonctionnelle de la peau : l'épiderme. A cette fin, l'évolution s'est dotée d'une structure complexe composée de cellules et de lipides recouvrant la surface, la couche cornée. Sa formation est finement régulée, car elle n'est pas seulement produite à la naissance mais constamment renouvelée tout au long de la vie, ce qui lui confère une grande plasticité mais ce qui est également la cause de nombreuses pathologies. ENaC est un canal sodique très étudié dans le rein et le poumon pour son importance dans la régulation de l'homéostasie sodique et la régulation du volume du milieu intérieur. Il est composé de 3 sous unités, α, ß et y qui forment un pore sélectif pour le sodium dans les membranes. Ce canal est présent dans la peau mais sa fonction n'y est pas connue. Des travaux précédents ont pu montrer que les souris dont le gène codant pour αENaC a été invalidé présentent un épiderme pathologique, suggérant un rôle dans la différentiation et pourrait même être impliqué dans la barrière épithéliale. Le but de cette thèse fut l'étude de la barrière dans ces souris knockouts avec des méthodes moléculaires et physiologiques et la caractérisation des mécanismes moléculaire impliqués. Dans ce travail, il a été montré que les souris mutantes présentaient un défaut de la barrière. Ce défaut n'est pas visible immédiatement à la naissance (test de perméabilité), mais 24h plus tard, lorsque les tests de perte d'eau transépithéliale montrent une différence évidente avec les animaux contrôles. Ni les protéines de structures ni les jonctions serrées de l'épiderme ne présentaient d'imperfections majeures. A l'inverse, les lipides de la couche cornée présentaient un problème de maturation (expliquant le phénotype de la barrière), certainement consécutif au défaut d'acidification à la surface de la peau que nous avons observé. D'autres mécanismes ont été explorées afin d'investiguer cette anomalie de la barrière, comme la réduction de sensibilité au calcium qui est le principal activateur de la formation de l'épiderme, ou la modification des flux d'ions entre les couches de l'épiderme. La localisation cellulaire d'ENaC, et l'action de son activateur CAPl ont également été étudiés en détails. En résumé, cette étude démontre clairement qu'ENaC est un acteur important dans la formation de la barrière épithéliale, car la peau des knockouts ne s'adapte pas aussi bien que celle des sauvages au nouvel environnement ex utero à cause de la fonction d'ENaC dans les mouvements de sodium au sein même de l'épiderme. Résumé tout public Chez l'homme, la peau est le plus grand organe, couvrant presque 2m2 et pesant près de 4kg chez l'adulte. Sa fonction principale est de protéger l'organisme des agressions extérieures mais également de conserver l'eau à l'intérieur du corps. Cette fonction nommée barrière épithéliale est localisée dans la partie fonctionnelle de la peau : l'épiderme. A cette fin, l'évolution s'est dotée d'une structure complexe composée de cellules et de lipides recouvrant la surface, la couche cornée. Sa formation est finement régulée, car elle n'est pas seulement produite à la naissance mais constamment renouvelée tout au long de la vie, ce qui lui confère une grande plasticité mais ce qui est également la cause de nombreuses maladies. ENaC est une protéine formant un canal qui permet le passage sélectif de l'ion sodium à travers la paroi des cellules. Il est très étudié dans le rein pour son importance dans la récupération du sel lors de la concentration de l'urine. Ce canal est présent dans la peau mais sa fonction n'y est pas connue. Des travaux précédents ont pu montrer que les souris où le gène codant pour αENaC a été invalidé présentent un épiderme pathologique, suggérant un rôle dans la peau et plus particulièrement la fonction de barrière de l'épiderme. Le but de cette thèse fut l'étude de la fonction de barrière dans ces souris mutantes, au niveau tissulaire et cellulaire. Dans ce travail, il a été montré que les souris mutantes présentaient une peau plus perméable que celle des animaux contrôles, grâce à une machine mesurant la perte d'eau à travers la peau. Ce défaut n'est visible que 24h après la naissance, mais nous avons pu montrer que les animaux mutants perdaient quasiment 2 fois plus d'eau que les contrôles. Au niveau moléculaire, nous avons pu montrer que ce défaut provenait d'un problème de maturation des lipides qui composent la barrière de la peau. Cette maturation est incomplète vraisemblablement à cause d'un défaut de mouvement des ions dans les couches les plus superficielles de l'épiderme, et cela à cause de l'absence du canal ENaC. En résumé, cette étude démontre clairement qu'ENaC est un acteur important dans la formation de la barrière épithéliale, car la peau des mutants ne s'adapte pas aussi bien que celle des sauvages au nouvel environnement ex utero à cause de la fonction d'ENaC dans les mouvements de sodium au sein même de l'épiderme.
Resumo:
Parmi les régimes sociaux pour les personnes sans emploi en âge de travailler, l'aide sociale compte parmi ceux qui ont été confrontés aux plus grands changements au cours des vingt dernières années. Durant cette période, le nombre et le profil des bénéficiaires a évolué à un tel point qu'il devient aujourd'hui difficile de considérer l'aide sociale uniquement sous le prisme d'un dernier filet de protection sociale intervenant pour une minorité d'individus fortement marginalisés socialement. Aujourd'hui, accompagnant une hausse régulière du nombre de bénéficiaires, le public de l'aide sociale est devenu beaucoup plus hétérogène, incorporant une frange de plus en plus importante de personnes pour qui le chômage de longue durée ou le sous-emploi constituent de fait le principal problème. Loin d'être un phénomène typiquement suisse, la transformation radicale du public touchant des prestations d'aide sociale a en fait touché l'ensemble des pays européens. Ces développements questionnent fondamentalement la mission de l'aide sociale. Traditionnellement, deux missions ont été au centre de l'aide sociale : garantir le minimum vital et favoriser l'intégration sociale des personnes les plus marginalisées socialement. Toutefois, aujourd'hui, avec l'émergence de nouveaux publics, se pose crucialement la question de la réorientation des régimes d'aide sociale vers une prise en charge visant le retour sur le premier marché du travail à plus ou moins long terme. De quels types de mesures de réinsertion professionnelle et de services de placement les bénéficiaires de l'aide sociale disposent-ils en Suisse ? Quels dispositifs organisationnels permettent-ils de garantir une prise en charge orientée vers l'emploi adaptée aux bénéficiaires de l'aide sociale ? En Suisse, bien que la réinsertion professionnelle soit désormais considérée comme une mission intégrale de l'aide sociale au niveau politique, il existe encore peu d'études empiriques sur les pratiques effectives mises en place dans les différents cantons en matière d'aide à la réinsertion professionnelle des bénéficiaires de l'aide sociale. Sans prétendre à l'exhaustivité, cette étude dresse un état des lieux de la situation actuelle en Suisse sur la base des quelques études existantes et d'une enquête par questionnaire réalisée auprès des responsables cantonaux en 2011. Malgré d'importantes différences entre et à l'intérieur des cantons et de nombreuses lacunes dans les données statistiques, un des principaux résultats qui ressort de cette étude est que l'accès des bénéficiaires de l'aide sociale à une prise en charge orientée emploi en Suisse reste problématique à plusieurs égards. En effet, alors que l'offre développée par les services sociaux en matière de mesures de réinsertion professionnelle reste souvent restreinte, d'autres pratiques telles que la collaboration interinstitutionnelle ou le recours aux ORP pour les services de placement présentent aussi plusieurs limites. Une comparaison avec la situation en Allemagne, qui a complètement réorganisé la prise en charge de ses chômeurs de longue durée en 2005 en créant une prestation financière et une structure de prise en charge spécifique à cette catégorie de sans-emplois, confirme le potentiel d'amélioration des efforts réalisés en Suisse, particulièrement en ce qui concerne l'importance accordée au retour à l'emploi et l'accès aux mesures de réinsertion professionnelle les plus prometteuses. Toutefois, et malgré une réduction significative du nombre de chômeurs de longue durée depuis l'introduction de la réforme Hartz IV en 2005, l'expérience allemande indique que la mise sur pied d'une structure spécialisée n'est pas non plus sans créer des problèmes, et que, plus généralement, il est difficile d'imputer le succès d'une politique de réinsertion professionnelle pour les bénéficiaires de l'aide sociale uniquement à son modèle organisationnel.
Resumo:
Cet ouvrage non seulement présente, de façon rigoureuse, les concepts et méthodes statistiques, mais aussi utilise des exemples concrets pour illustrer chaque concept théorique nouvellement introduit. Il présente de façon méticuleuse les notions fondamentales de la théorie des probabilités et de la statistique: bref rappel de l'histoire de la statistique, la statistique descriptive, les distributions discrètes et continues, estimation, tests d'hypothèses, l'analyse de corrélation, l'analyse de régression linéaire simple et multiple, et le modèle d'analyse de variance. Au moyen des exemples et exercices, le lecteur est guidé tout au long de la réalisation du problème. En même temps, l'apprentissage de l'utilisation de Stata se fait progressivement au fil des chapitres. La dernière partie de l'ouvrage propose une introduction à l'utilisation de Stata. Les corrections des exercices figurent à la fin de l'ouvrage, permettant au lecteur de vérifier le niveau de compréhension atteint après chaque étape.
Resumo:
Eukaryotic genomes are compartmentalized in different structural domains that can affect positively or negatively gene expression. These regions of euchromatin and heterochromatin are characterized by distinct histones marks which can facilitate or repress gene transcription. The chromatin environment represents thus one of the main problems to control gene expression in biotechnological applications or gene therapy, since its expression is affected by the chromatin neighboring its locus of insertion. Some chromatin regions like telomeres are composed of constitutive heterochromatin which leads to the telomeric position effect (TPE) that silences genes adjacent to the telomere. TPE is known to spread by the selfrecruitment of the SIR histone deacetylase complex from the telomere in S.cerevisiae, but the histone marks that are associated to telomeric chromatin in mammalian cells remain mostly unknown. The transcription factor CTF1 has shown antisilencing properties in mammalian cells and also a boundary activity against TPE in yeast cells when fused to the yeast Gal4 DNA binding domain. In the work presented here, we describe a dual-reporter system to assess the boundary activity of proteins such as CTF1 at human telomeres. When located between the two reporter genes, CTF1 shields the telomere distal gene from TPE, while the telomereproximal gene remains silenced by telomeric heterochromatin. The boundary activity of CTF1 is shown to act regardless its function of transcriptional activator, by opposition to the transcriptional activator VP16 which activates indifferently both transgenes. Moreover, this study shows that CTF1 boundary activity is linked to its H3 binding function, as expected from a chromatin remodeler. ChIP experiments showed that histone deacetylation is the main histone modification involved in gene silencing at mammalian cell telomeres. Distinctly to yeast cells, the histone deacetylation signal in human cells extented over a short range along the chromosome. CTF1 may help to block this propagation and therefore to restore histones acetylation level on telomere protected locus. Surprisingly, other histone marks such as trimethyl-H3K9 or trimethyl-H4K20 were found on telomere protected locus, while in another clone, unsilencing of telomere distal transgene was associated with recruitment of the histone variant H2A.Z. Thus, I conclude that CTF1 displays a chromatin boundary function which is independent of its transcriptional activity and therefore exhibit features required for use as chromatin insulator in biotechnological applications. RESUME Les génomes eucaryotes sont compartementalisés en domaines structurels qui peuvent affecter positivement ou négativement l'expression des gènes avoisinants. Ces régions dites d'euchromatine ou d'hétérochromatine sont caractérisées par des modifications posttraductionnelles des histones qui peuvent faciliter ou au contraire inhiber la transcription des gènes qui s'y trouvent. Ainsi, isoler un gène de son environnement chromatinien est problème fréquent lorsqu'il s'agit de contrôler son expression dans le cadre d'applications en biotechnologie ou encore en thérapie génique. Certaines régions de chromatine telles que les télomères sont composées d'hétérochromatine constitutive qui mène au silençage des gènes avoisinants. Cet effet de position télomérique (TPE) est connu dans la levure S.cerevisiae comme se propageant par auto-recrutement du complexe de déacétylation d'histone SIR, alors que peu de modifications de chromatine ont pu être associées à ce phénomène dans les cellules de mammifères. Le facteur de transcription CTF1 a montré des propriétés d'anti-silençage dans les cellules de mammifères, ainsi qu'une activité barrière contre le silençage télomérique dans les cellules de levures lorsqu'il est fusionné au domaine de liaison à l'ADN de la protéine de levure Gal4. Dans le travail présenté ci-après est décrit un système à deux gènes rapporteurs permettant de mesurer l'activité barrière de protéines telles que CTF1 aux télomères humains, et les modifications de chromatine qui y sont associées. Lorsque CTF1 est placé entre les deux gènes rapporteurs, le gène distant du télomère est protégé du silençage qui lui est associé, alors que le gène proche du télomère reste soumis à ce silençage induit par l'hétérochromatine télomérique. L'activité barrière de CTF1 est montrée ici comme agissant indépendamment de son activité transcriptionnelle, par opposition à l'activateur transcriptionnel VP16 qui active indifféremment les deux transgènes. En outre, cette étude appuie l'hypothèse stipulant que CTF1 agisse comme remodeleur chromatinien puisqu'elle démontre que son activité barrière est directement dépendante de son activité de liaison avec l'histone H3. De plus, des expériences d'immuno-précipitation de la chromatine démontrent que la déacétylation des histones est le majeur phénomène intervenant dans le silençage télomérique. Par opposition à la levure, ce signal de déacétylation ne se propage dans les cellules humaines que sur une courte distance le long du chromosome. CTF1 agit ainsi en bloquant cette propagation et en restaurant le niveau d'acétylation des histones sur le locus protégé du télomère. De manière surprenante et inattendue, d'autres modifications d'histones telles que 4 les H3K9 et H4K20 triméthylées sont aussi observées à ce locus, tandis le recrutement du variant H2A.Z peut aussi être suffisant à restaurer l'expression du gène distant du télomère. En terme de cette analyse, CTF1 exhibe ainsi une fonction de barrière chromatinienne qui exclue une activité transcriptionnelle non désirée - propriété qui est requise dans l'établissement des isolateurs visant à permettre le contrôle d'un transgène dans le cadre d'applications en biotechnologies.
Resumo:
Une grande partie des patients présentant une pneumonie communautaire ont un bon pronostic et peuvent être suivis dans la pratique ambulatoire moyennant un nombre limité d'examens paracliniques. Le diagnostic repose sur une clinique suggestive en présence d'un infiltrat compatible avec une pneumonie à la radiographie de thorax. Une anamnèse de voyage et une bonne connaissance de résistances locales du pneumocoque aux antibiotiques sont déterminantes pour le choix du traitement. Pour les patients de moins de 50 ans sans comorbidités et sans signes de sévérité, il est généralement recommandé de prescrire un macrolide ou une fluoroquinolone de 3e ou de 4e génération (fluoroquinolones «respiratoires»). Pour les patients plus âgés, et pour ceux qui présentent des comorbidités ou des critères de sévérité, une évaluation à l'hôpital est indiquée. La majorité des patients hospitalisés en soins généraux peuvent être traités par l'association d'une bêta-lactame et d'un macrolide, ou par une fluoroquinolone «respiratoire» seule, après prélèvements d'expectorations et de sang pour culture.
Resumo:
Déjà le récit de Cupidon et Psyché dans l'Asinus aureus pose le problème du genre de cette histoire enchâssée, racontée par une vieille - est-ce un mythe ou une fable philosophique ? - et, par voie de conséquence, celui du statut même des dieux qui y interviennent. Qu'on voie dans Partenopeu de Blois un lointain avatar du récit d'Apulée, dans lequel la fée se substitue à Cupidon, ou qu'on le rattache au folklore (celtique), la question est sensiblement la même au XIIe siècle : les auteurs médiévaux croyaient-ils aux « êtres faés » ou ceux-ci étaient-ils à leurs yeux les acteurs imposés par le choix d'un certain univers fictionnel ? Si la critique est fondamentalement d'accord pour parler d'une « rationalisation » ou d'une « moralisation » de la fée, la démarche par laquelle l'écrivain médiéval adapte et actualise le matériau issu d'une tradition est susceptible de subtiles variations : la « réécriture » est chaque fois tributaire du projet d'écriture respectif, qu'il s'agisse de Partenopeu de Blois ou du lai de Guigemar de Marie de France. Au-delà du statut de la fée et de l'altérité qu'elle représente, c'est le statut même de la femme et du héros qui sont en cause, leur place et leur fonction au sein de la société féodale. La « translittération » de parcours narratifs stéréotypés, voire universaux, n'a ici rien à voir avec la récupération politique du folklore, transmis par voie orale, à laquelle s'attelle, quelque deux siècles plus tard, Jean d'Arras dans sa Mélusine : il extrait la légende de la fée poitevine du domaine de la fabula en inscrivant la merveille dans l'histoire, la région et l'expérience vécue pour légitimer les droits du duc de Berry sur Lusignan.