118 resultados para Dualismes classiques
em Université de Lausanne, Switzerland
Resumo:
On trouvera ici un recueil des grands textes médicaux, littéraires, de philosophie et de sciences sociales sur l'expérience de la maladie et du soin. Il révèle combien cette expérience était déjà au coeur de la pensée la plus classique, mais aussi comment elle est devenue classique dans la pensée la plus contemporaine. D'Hippocrate à Georges Canguilhem, de Tolstoï à Susan Sontag, de Montaigne à Michel Foucault et Erving Goffman, ces classiques permettent d'appréhender les tensions les plus profondes et actuelles du soin : geste technique et relation éthique ; souci de soi et présence à l'autre ; quête de sens et travail ; solidarité et risque d'exclusion ; raison d'être ou point aveugle de la médecine. Chaque texte est suivi d'un commentaire destiné aux étudiants de philosophie et de médecine (notamment de Première Année Commune des Études de Santé) et à tous ceux qu'intéressent les dimensions scientifiques, éthiques et sociales du soin.
Resumo:
Si les versions cérébralisantes de la pathologie mentale ont eu plus ou moins de succès et de partisans selon les périodes et les courants dominants de la psychiatrie, elles n'ont cessé d'intéresser les aliénistes puis les psychiatres à travers les décennies. La question n'a pas fondamentalement varié au cours de ces deux derniers siècles. Elle peut être résumée ainsi : quels sont les dysfonctionnements cérébraux dont l'influence sur le comportement humain est telle qu'ils puissent provoquer parfois des pathologies qu'aucune thérapie biologique et/ou psychothérapeutique n'est capable de totalement maîtriser? Ce travail aborde ces questionnements à travers l'étude d'une hypothèse représentative des nombreuses tentatives de la psychiatrie de désigner les dysfonctionnements cérébraux potentiellement responsables des pathologies qu'elle tente de traiter: l'hypothèse diencéphalique des pathologies mentales, élaborée durant la première moitié du vingtième siècle, illustre en effet la quête de légitimité scientifique d'une psychiatrie constamment réduite à un tâtonnement thérapeutique. Se pencher sur la biographie d'une zone cérébrale permet premièrement de proposer un autre récit que celui généralement mis en avant par les historien·ne·s de la psychiatrie : il s'agit ici de montrer l'influence de la physiologie, de l'endocrinologie, de la neurologie et de la neurochirurgie sur la manière dont les psychiatres ont envisagé la relation esprit-cerveau, tant dans leur pratique clinique que dans leurs recherches expérimentales. En outre, l'étude de cette hypothèse révèle la continuité théorique entre la période qui précède et celle qui suit la « révolution neuroleptique », continuité qui contraste avec l'idée de rupture transmise par les récits plus classiques. Enfin, cette démarche permet de mettre en relief les enjeux actuels qu'entoure l'avancée des neurosciences psychiatriques, et de les réinscrire dans une histoire fondée sur des questionnements bien antérieurs au récent essor des neurosciences. Ainsi, revisiter la période durant laquelle a émergé l'hypothèse diencéphalique des pathologies mentales ne vise pas uniquement à s'intéresser au passer de la psychiatrie, mais plutôt à mobiliser ce passé pour mieux réfléchir à la façon dont cette discipline écrit sa propre histoire au présent.
Resumo:
Rapport de synthèse : Contexte: l'hydroxyéthylamidon (HEA) est largement utilisé comme expanseur volémique en anesthésiologie et réanimation. Cependant, cette classe de produits perturbe le system de la coagulation. Des améliorations restent possibles dans le choix de la combinaison optimale de poids moléculaire, de degré de substitution en radicaux éthyle et de localisation de ces radicaux sur le squelette glucidique des polymères, afin d'optimiser leur efficacité et leur tolérance. L'HEA de poids moléculaire élevé et faiblement substitué n'affecte pas plus la coagulation sanguine que de l'HEA de bas poids moléculaire faiblement substitué. Nous examinons in vivo l'effet d'un abaissement du rapport C2/C6 sur les caractéristiques pharmacocinétiques et l'impact sur la coagulation sanguine d'un HEA de haut poids moléculaire faiblement substitué. Matériels et méthode: nous comparons dans une étude prospective, randomisée et parallèle l'HEA 650/0.42/2.8 avec l'HEA 650/0.42/5.6 auprès de 30 cochons. Avant, pendant et jusqu'à 630 minutes après une perfusion de 30 ml/kg d'HEA, des échantillons sanguins ont été collectés pour mesurer les concentrations d'HEA, les tests de coagulation plasmatique classiques et la coagulation sanguine par thrombélastographie (TEG®, Haemoscope Corporation, Niles, II, U.S.). Les paramètres pharmacocinétiques ont été estimés en adaptant un modèle à deux compartiments. Résultats: la constante d'élimination est de 0.009 ± 0.001 (min-1) pour l'HEA 650/0.42/2.8 et 0.007 ± 0.001 (min-1) pour l'HEA 650/0.42/5.6 (p<0.001); la surface sous la courbe de concentration est de 1374 ± 340 min*g/L pour l'HEA 650/0.42/2.8 et 1697 ± 411 min*g/L pour l'HEA 650/0.42/5.6 (p=0.026). Les concentrations mesurées d'HEA ne montrent pas de différence entre l'HEA 650/0.42/2.8 et l'HEA 650/0.42/5.6. Les deux solutions d'HEA affectent de façon identique la coagulation sanguine: l'index de coagulation thrombélastographique diminue pareillement à ta fin de la perfusion d'HEA 650/0.42/2.8 et d'HEA 650/0.42/5.6 (p=0.29). De même, le temps de thromboplastine partielle activée et le temps de prothrombine augmentent de manière similaire pour l'HEA 650/0.42/2.8 et l'HEA 650/0.42/5.6 (p=0.83). Conclusion: la réduction du rapport C2/C6 de l'HEA de poids moléculaire élevé et faiblement substitué aboutit à une élimination légèrement accélérée d'HEA. Cependant, elle ne modifie pas l'effet perturbateur sur la coagulation.
Resumo:
L'Économie Sociale et Solidaire (ESS) représente aujourd'hui, en Europe, près de 10 % de l'emploi total et même plus dans certains pays, dont la France. Avec la crise, ce secteur prend une importance sociale, économique et politique croissante. La gestion des coopératives, mutuelles, fondations et associations est ainsi doublement interrogée en interne vis-à-vis de leurs « propriétaires » disposant de motivations particulières (socioéconomiques) et vis-à-vis de leurs communautés et territoires (relations aux partenaires publics et aux citoyens). C'est pourquoi la performance de ces organisations prend nécessairement une dimension sociale, voire sociétale. Les logiques de fonctionnement et d'action des managers de l'ESS sont, elles aussi, souvent particulières, hybrides et parfois paradoxales. Elles remettent en cause les découpages et frontières classiques du management, ainsi que les modèles de rationalité associés (public/privé, marchand/non-marchand, intérêt collectif/intérêts particuliers...). Face à une telle complexité, les principes et les outils de gestion de ces entreprises sont-ils alors spécifiques ? Ces entreprises sont-elles à l'origine d'innovations managériales et sociales particulières ? Comment concilier solidarité et efficacité dans un univers de plus en plus concurrentiel ? L'évolution marchande et financière, comme les problématiques de développement durable, interrogent également le mode de fonctionnement et l'avenir de ces organisations. L'objectif de cet ouvrage collectif, auquel ont contribué des experts du management des entreprises de l'économie sociale qui ont participé à un colloque international - soutenu par le Crédit Mutuel - sur le sujet, est d'apporter des réponses quant à la manière de renouveler les stratégies et les modèles de management, sans pour autant renier les valeurs et les principes fondamentaux de l'ESS. Il s'adresse aux étudiants et aux professionnels travaillant dans le secteur de l'économie sociale et solidaire (coopératives, mutuelles, associations et fondations) et intéressera également tous les managers et étudiants en management.
Resumo:
(Résumé de l'ouvrage) Durant toute l'Europe, et au-delà, on a assisté ces dernières années à un grand débat sur les sectes, leur nature, leur nombre, leur influence, leur rôle. Des événements tragiques comme les suicides collectifs ont confirmé dans leurs convictions ceux qui pensent que les sectes sont un fléau pour la société qui les tolère et pour les individus qui s'y engagent. D'autres, au contraire, mettent en garde contre la nouvelle « chasse aux sorcières » qu'on risque de déclencher et en appellent au respect du droit à la liberté religieuse. Ne faut-il pas compléter les analyses classiques de Max Weber et d'Ernst Troeltsch, qui distinguent entre le type « Église » et le type « Secte » ? Plusieurs études sur des groupes controversés (le tristement célèbre Ordre du Temple Solaire, les Témoins de Jéhovah, la Soka Gakkaï, les Loubavitch... ou les mouvances accusées de dérives sectaires) illustrent les évolutions contrastées du paysage religieux aujourd'hui. On assiste d'ailleurs à une mondialisation de ces phénomènes. Les auteurs reviennent longuement sur le débat de société autour des sectes, sur leur nocivité réelle ou supposée, sur leur stigmatisation légitime ou irraisonnée dans les médias et l'opinion publique. Les sectes interrogent la laïcité de l'État et le droit : entrent-elles dans le droit commun des religions ou faut-il créer une législation « anti-sectes » spécifiques ?
Resumo:
Résumé: L'évaluation de l'exposition aux nuisances professionnelles représente une étape importante dans l'analyse de poste de travail. Les mesures directes sont rarement utilisées sur les lieux même du travail et l'exposition est souvent estimée sur base de jugements d'experts. Il y a donc un besoin important de développer des outils simples et transparents, qui puissent aider les spécialistes en hygiène industrielle dans leur prise de décision quant aux niveaux d'exposition. L'objectif de cette recherche est de développer et d'améliorer les outils de modélisation destinés à prévoir l'exposition. Dans un premier temps, une enquête a été entreprise en Suisse parmi les hygiénistes du travail afin d'identifier les besoins (types des résultats, de modèles et de paramètres observables potentiels). Il a été constaté que les modèles d'exposition ne sont guère employés dans la pratique en Suisse, l'exposition étant principalement estimée sur la base de l'expérience de l'expert. De plus, l'émissions de polluants ainsi que leur dispersion autour de la source ont été considérés comme des paramètres fondamentaux. Pour tester la flexibilité et la précision des modèles d'exposition classiques, des expériences de modélisations ont été effectuées dans des situations concrètes. En particulier, des modèles prédictifs ont été utilisés pour évaluer l'exposition professionnelle au monoxyde de carbone et la comparer aux niveaux d'exposition répertoriés dans la littérature pour des situations similaires. De même, l'exposition aux sprays imperméabilisants a été appréciée dans le contexte d'une étude épidémiologique sur une cohorte suisse. Dans ce cas, certains expériences ont été entreprises pour caractériser le taux de d'émission des sprays imperméabilisants. Ensuite un modèle classique à deux-zone a été employé pour évaluer la dispersion d'aérosol dans le champ proche et lointain pendant l'activité de sprayage. D'autres expériences ont également été effectuées pour acquérir une meilleure compréhension des processus d'émission et de dispersion d'un traceur, en se concentrant sur la caractérisation de l'exposition du champ proche. Un design expérimental a été développé pour effectuer des mesures simultanées dans plusieurs points d'une cabine d'exposition, par des instruments à lecture directe. Il a été constaté que d'un point de vue statistique, la théorie basée sur les compartiments est sensée, bien que l'attribution à un compartiment donné ne pourrait pas se faire sur la base des simples considérations géométriques. Dans une étape suivante, des données expérimentales ont été collectées sur la base des observations faites dans environ 100 lieux de travail différents: des informations sur les déterminants observés ont été associées aux mesures d'exposition des informations sur les déterminants observés ont été associé. Ces différentes données ont été employées pour améliorer le modèle d'exposition à deux zones. Un outil a donc été développé pour inclure des déterminants spécifiques dans le choix du compartiment, renforçant ainsi la fiabilité des prévisions. Toutes ces investigations ont servi à améliorer notre compréhension des outils des modélisations ainsi que leurs limitations. L'intégration de déterminants mieux adaptés aux besoins des experts devrait les inciter à employer cet outil dans leur pratique. D'ailleurs, en augmentant la qualité des outils des modélisations, cette recherche permettra non seulement d'encourager leur utilisation systématique, mais elle pourra également améliorer l'évaluation de l'exposition basée sur les jugements d'experts et, par conséquent, la protection de la santé des travailleurs. Abstract Occupational exposure assessment is an important stage in the management of chemical exposures. Few direct measurements are carried out in workplaces, and exposures are often estimated based on expert judgements. There is therefore a major requirement for simple transparent tools to help occupational health specialists to define exposure levels. The aim of the present research is to develop and improve modelling tools in order to predict exposure levels. In a first step a survey was made among professionals to define their expectations about modelling tools (what types of results, models and potential observable parameters). It was found that models are rarely used in Switzerland and that exposures are mainly estimated from past experiences of the expert. Moreover chemical emissions and their dispersion near the source have also been considered as key parameters. Experimental and modelling studies were also performed in some specific cases in order to test the flexibility and drawbacks of existing tools. In particular, models were applied to assess professional exposure to CO for different situations and compared with the exposure levels found in the literature for similar situations. Further, exposure to waterproofing sprays was studied as part of an epidemiological study on a Swiss cohort. In this case, some laboratory investigation have been undertaken to characterize the waterproofing overspray emission rate. A classical two-zone model was used to assess the aerosol dispersion in the near and far field during spraying. Experiments were also carried out to better understand the processes of emission and dispersion for tracer compounds, focusing on the characterization of near field exposure. An experimental set-up has been developed to perform simultaneous measurements through direct reading instruments in several points. It was mainly found that from a statistical point of view, the compartmental theory makes sense but the attribution to a given compartment could ñó~be done by simple geometric consideration. In a further step the experimental data were completed by observations made in about 100 different workplaces, including exposure measurements and observation of predefined determinants. The various data obtained have been used to improve an existing twocompartment exposure model. A tool was developed to include specific determinants in the choice of the compartment, thus largely improving the reliability of the predictions. All these investigations helped improving our understanding of modelling tools and identify their limitations. The integration of more accessible determinants, which are in accordance with experts needs, may indeed enhance model application for field practice. Moreover, while increasing the quality of modelling tool, this research will not only encourage their systematic use, but might also improve the conditions in which the expert judgments take place, and therefore the workers `health protection.
Resumo:
Rapport de synthèse: Enjeux et contexte de recherche : la coarctation de l'aorte, rétrécissement de l'aorte thoracique descendante, est une des malformations cardiaques congénitales les plus fréquentes. Son diagnostic reste cependant difficile surtout lorsqu'elle est associée à la présence d'un canal artériel ou à une malformation cardiaque plus complexe. Dans ces contextes, les signes échographiques classiques qui posent habituellement le diagnostic (visualisation d'un rétrécissement juxtaductal et accélération au Doppler au niveau de l'isthme aortique) peuvent faire défaut ou être difficile à imager. La validation d'index basé sur des mesures anatomiques faciles à acquérir par échographie cardiaque, indépendantes de l'âge, de la situation hémodynamique et des malformations cardiaques associées représente une aide significative dans le diagnostic de la coarctation de l'aorte. Nous avons donc voulu valider par une étude rétrospective la fiabilité de deux index dans cette indication : l'index des artères carotido-sous-clavière (index CSA; rapport du diamètre de l'arc aortique transverse distal sur la distance entre les artères carotide et sous-clavière gauches) et l'index de l'aorte isthmique-descendante (index I/D; rapport des diamètres de l'aorte isthmique sur celui de l'aorte descendante). Notre article : nous avons rétrospectivement calculé la valeur des deux index (CSA et I/D) chez un groupe de 68 enfants avec coarctation et un groupe 24 cas contrôles apparenté pour l'âge et le sexe. Les enfants avec coarctation ont un index CSA et I/D significativement plus bas que le groupe contrôle (Index CSA : 0.84 ± 0.39 vs. 2.65 ± 0.82, p<0.0001 - Index I/D : 0.58 ± 0.18 vs. 0.98 ± 0.19, p<0.0001). Pour les deux index, ni la présence d'une autre malformation cardiaque, ni l'âge n'ont un impact sur la différence significative entre les deux groupes. Conclusions: notre recherche à permis de valider qu'un index CSA de moins de 1,5 est fortement suggestif d'une coarctation, indépendamment de l'âge du patient et de la présence d'une autre malformation cardiaque. L'index I/D (valeur limite 0,64) est moins spécifique que l'index CSA. L'association des deux index augmente la sensibilité et permet rétrospectivement le diagnostic de tous les cas de coarctation seulement sur la base d'une échographie cardiaque standard faite au lit du patient. Perspectives : cette étude rétrospective mérite d'être vérifiée par une étude prospective afin de confirmer la contribution de ces index à la prise en charge des patients suspects d'une coarctation de l'aorte. Cependant, la situation dans laquelle ces index pourraient avoir le plus grand impact reste encore à explorer. En effet, si le diagnostic postnatal de la coarctation est parfois difficile, son diagnostic prénatal l'est nettement plus. La présence obligatoire du canal artériel et l'existence d'une hypoplasie isthmique physiologique chez le foetus obligent le cardiologue foetale à observer des signes indirects, peu sensibles, d'une possible coarctation (prépondérance des cavités droites). La validation de l'index CSA et/ou de l'index I/D chez le foetus constituerait donc une avancée majeure dans le diagnostic prénatal de la coarctation de l'aorte.
Resumo:
Le travail policier et l'enquête judiciaire nécessitent de prendre de nombreuses décisions : choisir quelle trace analyser, mettre sous surveillance ou en détention un suspect, sont autant de décisions qui sont prises quotidiennement par les acteurs du système judiciaire. Ces décisions font l'objet de pesées d'intérêts qui se fondent sur l'analyse de l'information accessible. C'est le rôle de l'analyse criminelle de mettre en perspective l'information colligée pour la rendre intelligible aux décideurs compétents. L'usage de représentations graphiques est notamment recommandé pour soutenir l'analyse et la communication de ces informations.Des techniques de visualisation relationnelle sont notamment exploitées dans les enquêtes judiciaires afin de faciliter le traitement d'affaires d'envergure. Les éléments pertinents de l'enquête sont représentés sous la forme de schémas décrivant les relations entre les événements et les entités d'intérêts (tel que des personnes, des objets et des traces). Les exploitations classiques de ces techniques qui s'apparentent à des graphes, sont par exemple : la représentation de réseaux criminels, de trafics de marchandises, de chronologies d'événements, ainsi que la visualisation de relations téléphoniques et financières. Dans ce contexte, la visualisation soutient un nombre importants d'objectifs, tels qu'analyser les traces et les informations collectées, évaluer a posteriori une investigation, aider à qualifier les infractions, faciliter l'appréhension d'un dossier, voire soutenir une argumentation lors du procès.La pratique intègre des outils logiciels simples qui produisent des graphiques élégants et souvent percutants. Leur utilisation semble néanmoins soulever des difficultés. Cette recherche tend à montrer qu'il existe des disparités étonnantes lors de l'exploitation de ces techniques. Des biais de raisonnement et de perception peuvent être induits, allant jusqu'à provoquer des décisions aux conséquences parfois désastreuses. Ce constat révèle la nécessité de consolider les méthodes pratiquées.Pour mettre en évidence ces difficultés, des évaluations ont été effectuées avec des praticiens et des étudiants. Elles ont permis d'établir une image empirique de l'étendue des variations de conception et d'interprétation des représentations, ainsi que de leurs impacts sur la prise de décision. La nature et la diversité des concepts à représenter, l'absence d'un consensus émergeant sur la manière de représenter les données, la diversité des solutions visuelles envisageables, les contraintes imposées par les outils exploités et l'absence d'une formalisation claire du langage, sont autant de causes supposées des difficultés.Au cours des vingt dernières années, plusieurs axes de développement ont été proposés pour traiter les difficultés observées, tels que l'amélioration des automatismes facilitant la conception d'une représentation, l'exploitation des techniques de réseaux sociaux, l'automatisation de l'identification et de l'extraction des entités dans du texte non-structuré et la définition de langages formels. Cette recherche propose une approche parallèle fondée sur une exploitation adaptée de structures de graphe et de propriétés visuelles pour optimiser la représentation en fonction des objectifs définis et de la nature des informations à représenter.Des solutions ont été recherchées selon plusieurs axes. Des recommandations générales, issues de diverses communautés de recherche liées à la visualisation, ont été recherchées afin de proposer une démarche générale de conception des schémas relationnels. Par ailleurs, le développement d'un catalogue de bonnes pratiques formalisées sous la forme de patterns de visualisation a été amorcé. Chaque pattern décrit une solution particulière pour un problème d'analyse récurrent, tel que l'analyse d'une série de cambriolages. Finalement, l'impact sur les outils de la méthodologie proposée est discuté en regard des limites qu'ils imposent. Un prototype de visualisation multidimensionnel a été élaboré.Cette recherche met en évidence les difficultés rencontrées lors de l'exploitation de représentations graphiques pour soutenir le processus de l'enquête judiciaire et propose des éléments de méthode et des innovations techniques utiles tant pour l'enseignement de la discipline que pour sa pratique.