78 resultados para Métaphysique des raisons

em Université de Lausanne, Switzerland


Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé: Cet article prend pour point de départ les réponses réalistes majeures aux défis de la sous-détermination et de l'incommensurabilité. Ces réponses servent de base épistémologique au projet visant à construire une métaphysique des sciences qui réunit les connaissances scientifiques dans une conception cohérente et complète de la nature. Ce projet accorde une position privilégiée aux théories physiques fondamentales. Dans ce contexte, l'article se focalise sur les distinctions entre, d'une part, propriétés intrinsèques et relations et, d'autre part, propriétés catégoriques et propriétés causales, montrant comment les théories physiques fondamentales contemporaines soutiennent la position métaphysique du réalisme structural

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Introduction : Le syndrome de Brugada, décrit en 1992 par Pedro et Josep Brugada, est un syndrome cardiaque caractérisé par un sus-décalage particulier du segment ST associé à un bloc de branche droit atypique au niveau des dérivations ECG V1 à V3. Les altérations ECG du syndrome de Brugada sont classifiées en 3 types dont seul le type 1 est diagnostique. Les mécanismes physiopathologiques exacts de ce syndrome sont pour le moment encore controversés. Plusieurs hypothèses sont proposées dans la littérature dont deux principales retiennent l'attention : 1) le modèle du trouble de repolarisation stipule des potentiels d'action réduits en durée et en amplitude liés à un changement de répartition de canaux potassiques 2) le modèle du trouble de dépolarisation spécifie un retard de conduction se traduisant par une dépolarisation retardée. Dans le STEMI, un sus-décalage ST ressemblant à celui du syndrome de Brugada est expliqué par deux théories : 1) le courant de lésion diastolique suggère une élévation du potentiel diastolique transformé artificiellement en sus-décalage ST par les filtres utilisés dans tous les appareils ECG.¦Objectif : Recréer les manifestations ECG du syndrome de Brugada en appliquant les modifications du potentiel d'action des cardiomyocytes rapportées dans la littérature.¦Méthode : Pour ce travail, nous avons utilisé "ECGsim", un simulateur informatique réaliste d'ECG disponible gratuitement sur www.ecgsim.org. Ce programme est basé sur une reconstruction de l'ECG de surface à l'aide de 1500 noeuds représentant chacun les potentiels d'action des ventricules droit et gauche, épicardiques et endocardiques. L'ECG simulé peut être donc vu comme l'intégration de l'ensemble de ces potentiels d'action en tenant compte des propriétés de conductivité des tissus s'interposant entre les électrodes de surface et le coeur. Dans ce programme, nous avons définit trois zones, de taille différente, comprenant la chambre de chasse du ventricule droit. Pour chaque zone, nous avons reproduit les modifications des potentiels d'action citées dans les modèles du trouble de repolarisation et de dépolarisation et des théories de courant de lésion systolique et diastolique. Nous avons utilisé, en plus des douze dérivations habituelles, une électrode positionnée en V2IC3 (i.e. 3ème espace intercostal) sur le thorax virtuel du programme ECGsim.¦Résultats : Pour des raisons techniques, le modèle du trouble de repolarisation n'a pas pu être entièrement réalisée dans ce travail. Le modèle du trouble de dépolarisation ne reproduit pas d'altération de type Brugada mais un bloc de branche droit plus ou moins complet. Le courant de lésion diastolique permet d'obtenir un sus-décalage ST en augmentant le potentiel diastolique épicardique des cardiomyocytes de la chambre de chasse du ventricule droit. Une inversion de l'onde T apparaît lorsque la durée du potentiel d'action est prolongée. L'amplitude du sus-décalage ST dépend de la valeur du potentiel diastolique, de la taille de la lésion et de sa localisation épicardique ou transmurale. Le courant de lésion systolique n'entraîne pas de sus-décalage ST mais accentue l'amplitude de l'onde T.¦Discussion et conclusion : Dans ce travail, l'élévation du potentiel diastolique avec un prolongement de la durée du potentiel d'action est la combinaison qui reproduit le mieux les altérations ECG du Brugada. Une persistance de cellules de type nodal au niveau de la chambre de chasse du ventricule droit pourrait être une explication à ces modifications particulières du potentiel d'action. Le risque d'arythmie dans la Brugada pourrait également être expliqué par une automaticité anormale des cellules de type nodal. Ainsi, des altérations des mécanismes cellulaires impliqués dans le maintien du potentiel diastolique pourraient être présentes dans le syndrome de Brugada, ce qui, à notre connaissance, n'a jamais été rapporté dans la littérature.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Résumé de la thèseCette étude repose sur un double constat initial : en premier lieu, les récits français d'explorationau Tibet de la période s'étendant de 1850 à 1912 relèvent d'une tradition particulière du voyagescientifique en partie irréductible aux traditions des autres nations impérialistes de la mêmeépoque, notamment la tradition britannique à laquelle on les a souvent assimilés. En second lieu,ces récits révèlent à la fois la place centrale dégagée à la description du paysage tibétain et uneévolution unique et originale des savoirs et des représentations qui lui sont liés.Ce travail montre la rapide évolution des images du Tibet que s'est façonnées l'Europe,l'interrelation de cette histoire des représentations avec une révision des connaissances sur laterre et l'homme dans les sciences du XIXe siècle, ainsi qu'une dimension différentielle entre lesobjectifs de connaissance émanant des explorateurs français et anglais, différence due à uncontexte géopolitique hétérogène. Sur le fond de cette démarche contextualisante, le recours àl'analyse textuelle met en évidence le rôle qu'ont joué les explorateurs français dans l'histoire dessavoirs sur le Tibet.Pour des raisons inhérentes à la qualité d'écriture de ses récits et à l'acuité remarquable de sonapproche du monde tibétain, une place centrale de ce travail a été ménagée à Jacques Bacot(voyages de 1906 à 1907 - Dans les Marches tibétaines - et de 1909 à 1910 - Le Tibet révolté). Il a dèslors été fructueux de replacer ses récits dans l'histoire des savoirs et des représentations du Tibetet de les comparer aux récits majeurs d'autres explorateurs français au Tibet comme GabrielBonvalot, Fernand Grenard et Henri d'Ollone.Le paysage est une notion-clé pour comprendre le regard que portent les explorateurs sur leTibet. Or le paysage revêt des acceptions variables selon les auteurs et affiche des facettesdifférentes. Il a ainsi été possible de distinguer plusieurs dimensions : une dimension cognitive, unedimension épistémique, une dimension intersubjective et, enfin, une dimension imaginaire et sacrée. Cettedimension sacrée du paysage peut également être actualisée en tant que dimension écosymbolique.C'est là l'aboutissement des voyages de Bacot. L'explorateur, attentif à la culture tibétaine, envient à réaliser la valeur sacrée qui traverse la relation des Tibétains eux-mêmes à leurenvironnement. Le paysage ainsi compris se place au fondement d'une expérience partagée avecdes acteurs issus d'une autre culture et apparaît ainsi comme un opérateur privilégié pour« comprendre les compréhensions » (Clifford Geertz) des explorateurs, mais aussi, de proche enproche, des Tibétains.D'un point de vue épistémologique, la mise au jour de ces dimensions du paysage permetd'éviter certains écueils de la critique historienne et littéraire sur les récits de voyage au Tibet, quin'y a vu tantôt que de simples documents inertes, tantôt que le reflet d'un imaginaire purementet indéfectiblement occidental. La présente étude montre au contraire la part irréductiblequ'occupe la rencontre in situ avec l'autre et l'ailleurs dans l'élaboration conjointe desreprésentations et des savoirs.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Introduction : 6 décembre 1992: le peuple suisse rejette l'Accord sur l'Espace économique européen (EEE). Le Conseil fédéral décide alors de privilégier la voie bilatérale pour réglementer ses relations avec l'Union européenne (UE). Près de sept ans plus tard, le 21 juin 1999, un premier paquet de sept accords bilatéraux sont signés à Luxembourg. L'Accord sur la libre circulation des personnes (ALCP ou Accord) en constitue certainement « la partie la plus importante ». L'ALCP a pour objectif de garantir la libre circulation des travailleurs salariés, des travailleurs indépendants ainsi que de certaines catégories de non-actifs, et de faciliter la prestation de services sur le territoire des parties contractantes. Or la réalisation de ces objectifs dépend directement de la mise en oeuvre de l'interdiction de discrimination en raison de la nationalité. Au coeur même du principe de libre circulation, l'interdiction de discrimination en raison de la nationalité constitue, sans aucun doute, la clé de voûte de l'Accords. Partant de ce constat, il conviendra d'étudier dans un premier temps le principe de libre circulation (Partie I), puis de nous pencher dans un second temps sur l'interdiction de discrimination en raison de la nationalité (Partie II). La première partie de notre étude (consacrée à la libre circulation des personnes en vertu de l'ALCP) débutera par un survol des dispositions essentielles à l'appréhension d'un droit fondamental à la libre circulation, ainsi que par une présentation succincte du régime communautaire de libre circulation. Après avoir rappelé les étapes du cheminement ayant conduit à l'adoption de l'ALCP, et après avoir défini les différentes sources régissant la libre circulation entre la Suisse et les Etats membres de l'UE, nous analyserons ensuite l'ALCP lui-même, en procédant à la détermination de son champ d'application ainsi qu'à l'examen des principes généraux qui le régissent. Cet examen nous amènera alors à déterminer le rôle que devrait jouer la jurisprudence de la Cour de justice des Communautés européennes (CJCE) dans le cadre de l'Accord. Fort de cette analyse, nous conclurons cette première partie par une présentation du régime de libre circulation tel qu'institué par l'ALCP, sans oublier bien sûr d'évoquer, finalement, la portée du concept d'entrave et de la notion de citoyenneté européenne dans le cadre de ce régime. La seconde partie de notre étude (consacrée à l'interdiction de discrimination en raison de la nationalité selon l'ALCP) identifiera, à titre liminaire, les différentes dispositions de l'Accord visant à prohiber les discriminations en raison de la nationalité. Ces dispositions mises en lumière, nous détaillerons alors les étapes de l'examen permettant de relever la présence d'une discrimination en raison de la nationalité, en nous appuyant sur la jurisprudence de la Cour de justice et celle du Tribunal fédéral d'une part, et sur la doctrine développée en matière d'interdiction de discrimination d'autre part. Dans la foulée, nous pourrons ainsi présenter les différentes formes que peut revêtir une discrimination. Nous examinerons, en particulier, le régime prévu par la jurisprudence de la Cour de justice et celle du Tribunal fédéral en matière de discriminations à rebours présentant un élément transfrontalier. Suite de quoi nous serons en mesure - après examen des jurisprudences allemande et autrichienne relatives aux situations internes de discriminations à rebours - de procéder à une appréciation critique de la solution adoptée par le Tribunal fédéral en pareilles situations. A la suite de ces deux chapitres portant sur la notion et sur les formes de discriminations, il y aura lieu de définir le champ d'application matériel et personnel des différentes dispositions de l'Accord visant à interdire les discriminations en raison de la nationalité. Lors de la définition du champ d'application personnel en particulier, il conviendra, en premier lieu, d'identifier les personnes susceptibles d'invoquer ces différentes dispositions (les bénéficiaires). Cet examen débutera par l'identification des conditions générales communes à l'ensemble des dispositions étudiées. Il se poursuivra par l'analyse des conditions spécifiques de chaque norme, et se terminera par une présentation du régime particulier réservé aux membres de la famille et aux travailleurs détachés. En second lieu, il s'agira de déterminer les sujets de droit à l'encontre desquels ces dispositions sont opposables (les destinataires). Plus précisément, il s'agira d'examiner dans quelle mesure les particuliers, en sus des Etats, peuvent être destinataires des différentes obligations de l'ALCP en matière de libre circulation et d'interdiction de discrimination. Les champs d'application ayant été définis, il nous restera alors à examiner les différentes dispositions de l'Accord susceptibles de limiter la portée du principe de non-discrimination. Pour ce faire, nous analyserons en détail l'article 5 Annexe I-ALCP qui permet de limiter les droits consacrés par l'Accord pour des raisons d'ordre public, de sécurité publique ou de santé publique. Nous nous pencherons aussi sur les limitations liées à l'exercice de la puissance publique, consacrées par les articles 10, 16 et 22 al. 1 Annexe I-ALCP. Après un passage en revue des dernières dispositions de l'Accord prévoyant des limitations, nous examinerons ensuite dans quelle mesure certains principes non expressément prévus par l'Accord sont également susceptibles de justifier une différence de traitement en raison de la nationalité. Nous conclurons cette étude en analysant les implications juridiques d'une violation de l'interdiction de discrimination, ceci non seulement dans les relations liant l'Etat à un particulier, mais aussi dans celles liant deux particuliers entre eux. Dans le premier cas de figure nous verrons qu'il y a lieu de différencier l'analyse en fonction du type d'acte en question - les implications d'une violation n'étant pas les mêmes selon que l'on se trouve en présence d'une norme, d'une décision ou d'un contrat (de droit administratif ou de droit privé) présentant un caractère discriminatoire. Dans le second cas de figure, il s'agira cette fois-ci de distinguer les implications des conditions discriminatoires en fonction des différentes phases d'une relation contractuelle - aux stades de la conclusion d'un contrat, de son exécution et de sa résiliation.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L' évaluation quantitative des dangers et des expositions aux nanomatériaux se heurte à de nombreuses incertitudes qui ne seront levées qu'à mesure de la progression des connaissances scientifiques de leurs propriétés. L' une des conséquences de ces incertitudes est que les valeurs limites d'exposition professionnelle définies actuellement pour les poussières ne sont pas nécessairement pertinentes aux nanomatériaux. En l'absence de référentiel quantitatif et, à la demande de la DGS pour éclairer les réflexions de l' AFNOR et de l'ISO sur le sujet, une démarche de gestion graduée des risques (control banding) a été élaborée au sein de l' Anses. Ce développement a été réalisé à l'aide d'un groupe d'experts rapporteurs rattaché au Comité d'experts spécialisés évaluation des risques liés aux agents physiques, aux nouvelles technologies et aux grands aménagements. La mise en oeuvre de la démarche de gestion graduée des risques proposée repose sur quatre grandes étapes: 1. Le recueil des informations. Cette étape consiste à réunir les informations disponibles sur les dangers du nanomatériau manufacturé considéré ; ainsi que sur l'exposition potentielle des personnes aux postes de travail (observation sur le terrain, mesures, etc.). 2. L'attribution d'une bande de danger. Le danger potentiel du nanomatériau manufacturé présent, qu'il soit brut où incorporé dans une matrice (liquide ou solide) est évalué dans cette étape. La bande danger attribuée tient compte de la dangerosité du produit bulk ou de sa substance analogue à l'échelle non-nanométrique, de la bio-persistance du matériau (pour les matériaux fibreux), de sa solubilité et de son éventuelle réactivité. 3. Attribution d'une bande d'exposition. La bande d'exposition du nanomatériau manufacturé considéré ou du produit en contenant est définie par le niveau de potentiel d'émission du produit. Elle tient compte de sa forme physique (solide, liquide, poudre aérosol), de sa pulvérulence et de sa volatilité. Le nombre de travailleurs, la fréquence, la durée d'exposition ainsi que la quantité mise en oeuvre ne sont pas pris en compte, contrairement à une évaluation classique des risques chimiques. 4. Obtention d'une bande de maîtrise des risques. Le croisement des bandes de dangers et d'exposition préalablement attribuées permet de défi nir le niveau de maîtrise du risque. Il fait correspondre les moyens techniques et organisationnels à mettre en oeuvre pour maintenir le risque au niveau le plus faible possible. Un plan d'action est ensuite défi ni pour garantir l'effi cacité de la prévention recommandée par le niveau de maîtrise déterminé. Il tient compte des mesures de prévention déjà existantes et les renforce si nécessaire. Si les mesures indiquées par le niveau de maîtrise de risque ne sont pas réalisables, par exemple, pour des raisons techniques ou budgétaires, une évaluation de risque approfondie devra être réalisée par un expert. La gestion graduée des risques est une méthode alternative pour réaliser une évaluation qualitative de risques et mettre en place des moyens de prévention sans recourir à une évaluation quantitative des risques. Son utilisation semble particulièrement adaptée au contexte des nanomatériaux manufacturés, pour lequel les choix de valeurs de référence (Valeurs limites d'exposition en milieu professionnel) et des techniques de mesurage appropriées souffrent d'une grande incertitude. La démarche proposée repose sur des critères simples, accessibles dans la littérature scientifi que ou via les données techniques relatives aux produits utilisés. Pour autant, sa mise en oeuvre requiert des compétences minimales dans les domaines de la prévention des risques chimiques (chimie, toxicologie, etc.), des nanosciences et des nanotechnologies.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Summary : International comparisons in the area of victimization, particularly in the field of violence against women, are fraught with methodological problems that previous research has not systematically addressed, and whose answer does not seem to be agreed up~n. For obvious logistic and financial reasons, international studies on violence against women (i.e. studies that administer the same instrument in different countries). are seldom; therefore, researchers are bound to resort to secondary comparisons. Many studies simply juxtapose their results to the ones of previous wòrk or to findings obtained in different contexts, in order to offer an allegedly comparative perspective to their conclusions. If, most of the time, researchers indicate the methodological limitations of a direct comparison, it is not rare that these do not result in concrete methodological controls. Yet, many studies have shown the influence of surveys methodological parameters on findings, listing recommendations fora «best practice» of research. Although, over the past decades, violence against women surveys have become more and more similar -tending towards a sort of uniformization that could be interpreted as a passive consensus -these instruments retain more or less subtle differences that are still susceptible to influence the validity of a comparison. Yet, only a small number of studies have directly worked on the comparability of violence against women data, striving to control the methodological parameters of the surveys in order to guarantee the validity of their comparisons. The goal of this work is to compare data from two national surveys on violence against women: the Swiss component of the International Violence Against Women Survey [CH-IVAWS] and the National Violence Against Women Survey [NVAWS] administered in the United States. The choice of these studies certainly ensues from the author's affiliations; however, it is far from being trivial. Indeed, the criminological field currently endows American and Anglo-Saxon literature with a predominant space, compelling researchers from other countries to almost do the splits to interpret their results in the light of previous work or to develop effective interventions in their own context. Turning to hypotheses or concepts developed in a specific framework inevitably raises the issue of their applicability to another context, i.e. the Swiss context, if not at least European. This problematic then takes on an interest that goes beyond the particular topic of violence against women, adding to its relevance. This work articulates around three axes. First, it shows the way survey characteristics influence estimates. The comparability of the nature of the CH-IVAWS and NVAWS, their sampling design and the characteristics of their administration are discussed. The definitions used, the operationalization of variables based on comparable items, the control of reference periods, as well as the nature of the victim-offender relationship are included among controlled factors. This study establishes content validity within and across studies, presenting a systematic process destined to maximize the comparability of secondary data. Implications of the process are illustrated with the successive presentation of comparable and non-comparable operationalizations of computed variables. Measuring violence against. women in Switzerland and the United-States, this work compares the prevalence of different forms (threats, physical violence and sexual violence) and types of violence (partner and nonpartner violence). Second, it endeavors to analyze concepts of multivictimization (i.e. experiencing different forms of victimization), repeat victimization (i.e. experiencing the same form of violence more than once), and revictimization (i.e. the link between childhood and adulthood victimization) in a comparative -and comparable -approach. Third, aiming at understanding why partner violence appears higher in the United States, while victims of nonpartners are more frequent in Switzerland, as well as in other European countries, different victimization correlates are examined. This research contributes to a better understanding of the relevance of controlling methodological parameters in comparisons across studies, as it illustrates, systematically, the imposed controls and their implications on quantitative data. Moreover, it details how ignoring these parameters might lead to erroneous conclusions, statistically as well as theoretically. The conclusion of the study puts into a wider perspective the discussion of differences and similarities of violence against women in Switzerland and the United States, and integrates recommendations as to the relevance and validity of international comparisons, whatever the'field they are conducted in. Résumé: Les comparaisons internationales dans le domaine de la victimisation, et plus particulièrement en ce qui concerne les violences envers les femmes, se caractérisent par des problèmes méthodologiques que les recherches antérieures n'ont pas systématiquement adressés, et dont la réponse ne semble pas connaître de consensus. Pour des raisons logistiques et financières évidentes, les études internationales sur les violences envers les femmes (c.-à-d. les études utilisant un même instrument dans différents pays) sont rares, aussi les chercheurs sont-ils contraints de se tourner vers des comparaisons secondaires. Beaucoup de recherches juxtaposent alors simplement leurs résultats à ceux de travaux antérieurs ou à des résultats obtenus dans d'autres contextes, afin d'offrir à leurs conclusions une perspective prétendument comparative. Si, le plus souvent, les auteurs indiquent les limites méthodologiques d'une comparaison directe, il est fréquent que ces dernières ne se traduisent pas par des contrôles méthodologiques concrets. Et pourtant, quantité de travaux ont mis en évidence l'influence des paramètres méthodologiques des enquêtes sur les résultats obtenus, érigeant des listes de recommandations pour une «meilleure pratique» de la recherche. Bien que, ces dernières décennies, les sondages sur les violences envers les femmes soient devenus de plus en plus similaires -tendant, vers une certaine uniformisation que l'on peut interpréter comme un consensus passif-, il n'en demeure pas moins que ces instruments possèdent des différences plus ou moins subtiles, mais toujours susceptibles d'influencer la validité d'une comparaison. Pourtant, seules quelques recherches ont directement travaillé sur la comparabilité des données sur les violences envers les femmes, ayant à coeur de contrôler les paramètres méthodologiques des études utilisées afin de garantir la validité de leurs comparaisons. L'objectif de ce travail est la comparaison des données de deux sondages nationaux sur les violences envers les femmes: le composant suisse de l'International Violence Against Women Survey [CHIVAWSj et le National Violence Against Women Survey [NVAWS) administré aux États-Unis. Le choix de ces deux études découle certes des affiliations de l'auteure, cependant il est loin d'être anodin. Le champ criminologique actuel confère, en effet, une place prépondérante à la littérature américaine et anglo-saxonne, contraignant ainsi les chercheurs d'autres pays à un exercice proche du grand écart pour interpréter leurs résultats à la lumière des travaux antérieurs ou développer des interventions efficaces dans leur propre contexte. Le fait de recourir à des hypothèses et des concepts développés dans un cadre spécifique pose inévitablement la question de leur applicabilité à un autre contexte, soit ici le contexte suisse, sinon du moins européen. Cette problématique revêt alors un intérêt qui dépasse la thématique spécifique des violences envers les femmes, ce qui ajoute à sa pertinence. Ce travail s'articule autour de trois axes. Premièrement, il met en évidence la manière dont les caractéristiques d'un sondage influencent les estimations qui en découlent. La comparabilité de la nature du CH-IVAWS et du NVAWS, de leur processus d'échantillonnage et des caractéristiques de leur administration est discutée. Les définitions utilisées, l'opérationnalisation des variables sur la base d'items comparables, le contrôle des périodes de référence, ainsi que la nature de la relation victime-auteur figurent également parmi les facteurs contrôlés. Ce travail établit ainsi la validité de contenu intra- et inter-études, offrant un processus systématique destiné à maximiser la comparabilité des données secondaires. Les implications de cette démarche sont illustrées avec la présentation successive d'opérationnalisations comparables et non-comparables des variables construites. Mesurant les violences envers les femmes en Suisse et aux États-Unis, ce travail compare la prévalence de plusieurs formes (menaces, violences physiques et violences sexuelles) et types de violence (violences partenaires et non-partenaires). 11 s'attache également à analyser les concepts de multivictimisation (c.-à-d. le fait de subir plusieurs formes de victimisation), victimisation répétée (c.-à.-d. le fait de subir plusieurs incidents de même forme) et revictimisation (c.-à-d. le lien entre la victimisation dans l'enfance et à l'âge adulte) dans une approche comparative - et comparable. Dans un troisième temps, cherchant à comprendre pourquoi la violence des partenaires apparaît plus fréquente aux États-Unis, tandis que les victimes de non-partenaires sont plus nombreuses en Suisse, et dans d'autres pays européens, différents facteurs associés à la victimisation sont évalués. Cette recherche participe d'une meilleure compréhension de la pertinence du contrôle des paramètres méthodologiques dans les comparaisons entre études puisqu'elle illustre, pas à pas, les contrôles imposés et leurs effets sur les données quantitatives, et surtout comment l'ignorance de ces paramètres peut conduire à des conclusions erronées, tant statistiquement que théoriquement. La conclusion replace, dans un contexte plus large, la discussion des différences et des similitudes observées quant à la prévalence des violences envers les femmes en Suisse et aux États-Unis, et intègre des recommandations quant à la pertinence et à la validité des comparaisons internationales, cela quel que soit le domaine considéré.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La présente recherche se propose de désobstruer un certain nombre de catégories « esthétiques », au sens étendu du terme, de leur métaphysique implicite. La thèse que je souhaite défendre se présente sous la forme d'un paradoxe : d'une part, le sens originel d'« esthétique » a été perdu de vue, d'autre part, malgré cet oubli, quiconque s'interroge philosophiquement sur les beaux-arts reçoit, nolens volens, Baumgarten en héritage. Avec AEsthetica (1750/1758), ouvrage inachevé et hautement problématique, nous pourrions dire, citant René Char, qu'il s'agit-là d'un « héritage précédé d'aucun testament ». En d'autres termes, ce qui nous échoit nous occupe, voire nous préoccupe, sans que nous disposions des outils conceptuels pour nous y rapporter librement. Soyons clairs, je ne soutiens pas que l'esthétique philosophique, telle qu'elle s'énonce à ses débuts, soit un passage obligé pour penser l'art, et ce d'autant plus qu'il ne s'agit pas d'un passage, mais proprement d'une impasse. Ce que je veux dire, c'est que Kant répond à Baumgarten, et que Hegel répond à Kant et ainsi de suite. Il n'y a pas de tabula rasa dans l'histoire de la pensée, et l'oubli de l'historicité d'une pensée est le meilleur moyen de la neutraliser en simple supplément culturel, tout en demeurant entièrement captifs de ses présupposés.Au départ, la question qui motivait implicitement la rédaction de cette recherche se formulait ainsi : « Dans quelle mesure la philosophie énonce-t-elle quelque chose d'important au sujet des beaux-arts ? » Au fil du temps, la question s'est inversée pour devenir : « Qu'est-ce que les écrits sur les beaux- arts, tels qu'ils foisonnent au 18e siècle, nous enseignent à propos de la philosophie et des limites inhérentes à sa manière de questionner ?» Et gardons-nous de penser qu'une telle inversion cantonne la question de l'esthétique, au sens très large du terme, à n'être qu'une critique immanente à l'histoire de la philosophie. Si la philosophie était une « discipline » parmi d'autres, un « objet » d'étude possible dans la liste des matières universitaires à choix, elle ne vaudrait pas, à mon sens, une seule heure de peine. Mais c'est bien parce que la philosophie continue à orienter la manière dont nous nous rapportons au « réel », au « monde » ou à l'« art » - je place les termes entre guillemets pour indiquer qu'il s'agit à la fois de termes usuels et de concepts philosophiques - que les enjeux de la question de l'esthétique, qui est aussi et avant tout la question du sentir, excèdent l'histoire de la philosophie.Pour introduire aux problèmes soulevés par l'esthétique comme discipline philosophique, j'ai commencé par esquisser à grands traits la question du statut de l'image, au sens le plus général du terme. Le fil conducteur a été celui de l'antique comparaison qui conçoit la poésie comme une « peinture parlante » et la peinture comme une « poésie muette ». Dans le prolongement de cette comparaison, le fameux adage ut pictura poesis erit a été conçu comme le véritable noeud de toute conception esthétique à venir.Il s'est avéré nécessaire d'insister sur la double origine de la question de l'esthétique, c'est-à-dire la rencontre entre la pensée grecque et le christianisme. En effet, l'un des concepts fondamentaux de l'esthétique, le concept de création et, plus spécifiquement la possibilité d'une création ex nihiio, a été en premier lieu un dogme théologique. Si j'ai beaucoup insisté sur ce point, ce n'est point pour établir une stricte identité entre ce dogme théologique et le concept de création esthétique qui, force est de l'admettre, est somme toute souvent assez flottant dans les écrits du 18e siècle. L'essor majeur de la notion de création, couplée avec celle de génie, sera davantage l'une des caractéristiques majeures du romantisme au siècle suivant. La démonstration vise plutôt à mettre en perspective l'idée selon laquelle, à la suite des théoriciens de l'art de la Renaissance, les philosophes du Siècle des Lumières ont accordé au faire artistique ou littéraire une valeur parfaitement inédite. Si l'inventeur du terme « esthétique » n'emploie pas explicitement le concept de création, il n'en demeure pas moins qu'il attribue aux poètes et aux artistes le pouvoir de faire surgir des mondes possibles et que ceux-ci, au même titre que d'autres régions de l'étant, font l'objet d'une saisie systématique qui vise à faire apparaître la vérité qui leur est propre. Par l'extension de l'horizon de la logique classique, Baumgarten inclut les beaux-arts, à titre de partie constituante des arts libéraux, comme objets de la logique au sens élargi du terme, appelée « esthético- logique ». L'inclusion de ce domaine spécifique d'étants est justifiée, selon les dires de son auteur, par le manque de concrétude de la logique formelle. Or, et cela n'est pas le moindre des paradoxes de l'esthétique, la subsomption des beaux-arts sous un concept unitaire d'Art et la portée noétique qui leur est conférée, s'opère à la faveur du sacrifice de leur singularité et de leur spécificité. Cela explique le choix du titre : « métaphysique de l'Art » et non pas « métaphysique de l'oeuvre d'art » ou « métaphysique des beaux-arts ». Et cette aporîe constitutive de la première esthétique est indépassable à partir des prémices que son auteur a établies, faisant de la nouvelle discipline une science qui, à ce titre, ne peut que prétendre à l'universalité.Au 18e siècle, certaines théories du beau empruntent la voie alternative de la critique du goût. J'ai souhaité questionner ces alternatives pour voir si elles échappent aux problèmes posés par la métaphysique de l'Art. Ce point peut être considéré comme une réplique à Kant qui, dans une note devenue célèbre, soutient que « les Allemands sont les seuls à se servir du mot "esthétique" pour désigner ce que d'autres appellent la critique du goût ». J'ai démontré que ces deux termes ne sont pas synonymes bien que ces deux positions philosophiques partagent et s'appuient sur des présupposés analogues.La distinction entre ces deux manières de penser l'art peut être restituée synthétiquement de la sorte : la saisie systématique des arts du beau en leur diversité et leur subsomption en un concept d'Art unitaire, qui leur attribue des qualités objectives et une valeur de vérité indépendante de toute saisie subjective, relègue, de facto, la question du jugement de goût à l'arrière-plan. La valeur de vérité de l'Art, définie comme la totalité des qualités intrinsèques des oeuvres est, par définition, non tributaire du jugement subjectif. Autrement dit, si les oeuvres d'art présentent des qualités intrinsèques, la question directrice inhérente à la démarche de Baumgarten ne peut donc nullement être celle d'une critique du goût, comme opération subjective {Le. relative au sujet, sans que cela soit forcément synonyme de « relativisme »), mais bien la quête d'un fondement qui soit en mesure de conférer à l'esthétique philosophique, en tant que métaphysique spéciale, sa légitimité.Ce qui distingue sur le plan philosophique le projet d'une métaphysique de l'Art de celui d'une esthétique du goût réside en ceci que le premier est guidé, a priori, par la nécessité de produire un discours valant universellement, indépendant des oeuvres d'art, tandis que le goût, pour s'exercer, implique toujours une oeuvre singulière, concrète, sans laquelle celui-ci ne reste qu'à l'état de potentialité. Le goût a trait au particulier et au contingent, sans être pour autant quelque chose d'aléatoire. En effet, il n'est pas un véritable philosophe s'interrogeant sur cette notion qui n'ait entrevu, d'une manière ou d'une autre, la nécessité de porter le goût à la hauteur d'un jugement, c'est-à-dire lui conférer au moins une règle ou une norme qui puisse le légitimer comme tel et le sauver du relativisme, pris en son sens le plus péjoratif. La délicatesse du goût va même jusqu'à être tenue pour une forme de « connaissance », par laquelle les choses sont appréhendées dans toute leur subtilité. Les différents auteurs évoqués pour cette question (Francis Hutcheson, David Hume, Alexander Gerard, Louis de Jaucourt, Montesquieu, Voltaire, D'Alembert, Denis Diderot, Edmund Burke), soutiennent qu'il y a bien quelque chose comme des « normes » du goût, que celles-ci soient inférées des oeuvres de génie ou qu'elles soient postulées a priori, garanties par une transcendance divine ou par la bonté de la Nature elle-même, ce qui revient, en dernière instance au même puisque le geste est similaire : rechercher dans le suprasensible, dans l'Idée, un fondement stable et identique à soi en mesure de garantir la stabilité de l'expérience du monde phénoménal.La seconde partie de la recherche s'est articulée autour de la question suivante : est-ce que les esthétiques du goût qui mesurent la « valeur » de l'oeuvre d'art à l'aune d'un jugement subjectif et par l'intensité du sentiment échappent aux apories constitutives de la métaphysique de l'Art ?En un sens, une réponse partielle à cette question est déjà contenue dans l'expression « esthétique du goût ». Cette expression ne doit pas être prise au sens d'une discipline ou d'un corpus unifié : la diversité des positions présentées dans cette recherche, bien que non exhaustive, suffit à le démontrer. Mais ce qui est suggéré par cette expression, c'est que ces manières de questionner l'art sont plus proches du sens original du terme aisthêsis que ne l'est la première esthétique philosophique de l'histoire de la philosophie. L'exercice du goût est une activité propre du sentir qui, en même temps, est en rapport direct avec la capacité intellectuelle à discerner les choses et à un juger avec finesse et justesse.Avec le goût esthétique s'invente une espèce de « sens sans organe » dont la teneur ontologique est hybride, mais dont le nom est identique à celui des cinq sens qui procurent la jouissance sensible la plus immédiate et la moins raisonnable qui soit. Par la reconnaissance de l'existence d'un goût « juste » et « vrai », ou à défaut, au moins de l'existence d'une « norme » indiscutable de celui-ci, c'est-à-dire de la possibilité de formuler un jugement de goût une tentative inédite de spîritualisation de la sensibilité a lieu.Par conséquent, il est loin d'être évident que ce que j'ai appelé les esthétiques du goût échappent à un autre aspect aporétique de la métaphysique de l'Art, à savoir : passer à côté du caractère singulier de telle ou telle oeuvre afin d'en dégager les traits universels qui permettent au discours de s'étayer. Dans une moindre mesure, cela est même le cas dans les Salons de Diderot où, trop souvent, le tableau sert de prétexte à l'élaboration d'un discours brillant.Par contre, tout l'intérêt de la question du goût réside en ceci qu'elle présente, de façon particulièrement aiguë, les limites proprement métaphysiques dont l'esthétique, à titre de discipline philosophique, se fait la légataire et tente à sa manière d'y remédier par une extension inédite du concept de vérité et sa caractérisai ion en termes de vérité « esthéticologique » au paragraphe 427 de Y Esthétique. Cela dit, le fait même que dans l'empirisme la sensibilité s'oppose, une fois de plus, à l'intellect comme source de la naissance des idées - même si c'est dans la perspective d'une réhabilitation de la sensibilité -, indique que l'horizon même de questionnement demeure inchangé. Si le goût a pu enfin acquérir ses lettres de noblesse philosophique, c'est parce qu'il a été ramené, plus ou moins explicitement, du côté de la raison. Le jugement portant sur les arts et, de manière plus générale, sur tout ce qui est affaire de goût ne saurait se limiter au sentiment de plaisir immédiat. Le vécu personnel doit se transcender en vertu de critères qui non seulement permettent de dépasser le relativisme solipsiste, mais aussi de donner forme à l'expérience vécue afin qu'elle manifeste à chaque fois, et de façon singulière, une portée universelle.Le goût, tel qu'il devient un topos des discours sur l'art au 18e siècle, peut, à mon sens, être interprété comme l'équivalent de la glande pinéale dans la physiologie cartésienne : l'invention d'un « je ne sais quoi » situé on ne sait où, sorte d'Hermès qui assure la communication entre l'âme et le corps et sert l'intermédiaire entre l'intellect et la sensibilité. L'expérience décrite dans l'exercice du goût implique de facto une dimension par définition occultée par la métaphysique de l'Art : le désir. Pour goûter, il faut désirer et accepter d'être rempli par l'objet de goût. Dans l'exercice du goût, le corps est en jeu autant que l'intellect, il s'agit d'une expérience totale dans laquelle aucune mise à distance théorétique n'est, en un premier temps, à même de nous prémunir de la violence des passions qui nous affectent. L'ambiguïté de cette notion réside précisément dans son statut ontologiquement problématique. Mais cette incertitude est féconde puisqu'elle met en exergue le caractère problématique de la distinction entre corps et esprit. Dans la notion de goût est contenue l'idée que le corps pense aussi et que, par voie de conséquence, la sensibilité n'est pas dépourvue de dimension spirituelle. Reste que formuler les choses de la sorte revient à rejouer, en quelque sorte, l'antique diaphorâ platonicienne et à convoquer, une fois de plus, les grandes oppositions métaphysiques telles que corps et âme, sensible et intelligible, matière et forme.La troisième partie est entièrement consacrée à Shaftesbury qui anticipe le statut ontologiquement fort de l'oeuvre d'art (tel qu'il sera thématisé par Baumgarten) et l'allie à une critique du goût. Cet auteur peut être considéré comme une forme d'exception qui confirme la règle puisque sa métaphysique de l'Art laisse une place prépondérante à une critique du goût. Mais le cumul de ces deux caractéristiques opposées un peu schématiquement pour les besoins de la démonstration n'invalide pas l'hypothèse de départ qui consiste à dire que la saisie philosophique de la question du goût et l'invention conjointe de l'esthétique au 18e siècle sont deux tentatives de trouver une issue au problème du dualisme des substances.Cette recherche doit être prise comme une forme de propédeutique à la fois absolument nécessaire et parfaitement insuffisante. Après Baumgarten et le siècle du goût philosophique, les propositions de dépassement des apories constitutives d'une tradition qui pense l'art à partir de couples d'oppositions métaphysiques tels qu'âme et corps, forme et matière, ainsi que leurs traductions dans les arts visuels (dessin et couleur ou encore figuration et abstraction), n'ont pas manqué. Il aurait fallu in fine s'effacer pour laisser la place aux plasticiens eux-mêmes, mais aussi aux poètes, non plus dans l'horizon de Y ut pictura, mais lorsqu'ils expriment, sans verser dans l'analyse conceptuelle, leurs rencontres avec telle ou telle oeuvre (je pense à Baudelaire lorsqu'il évoque Constantin Guys, à Charles Ferdinand Ramuz lorsqu'il rend hommage à Cézanne ou encore à Pascal Quignard lorsqu'il raconte les fresques de la maison des Dioscures à Pompéi, pour ne citer que trois noms qui affleurent immédiatement à ma mémoire tant leur souvenir est vivace et leur exemple un modèle). Et puis il s'agit, malgré tout, de ne pas renoncer pour autant au discours esthétique, c'est- à-dire à la philosophie, mais de réinterroger les catégories dont nous sommes les légataires et de penser avec et au-delà des limites qu'elles nous assignent. Mais cela ferait l'objet d'un autre ouvrage.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L'Etude Suisse de Cohorte VIH a été mise en place en 1988. Plusieurs centres participent à cette étude : les hôpitaux universitaires de Zurich, Berne, Bâle, Genève et Lausanne, les hôpitaux cantonaux de Saint-Gall et du Tessin, 14 hôpitaux régionaux, ainsi que 35 praticiens privés. Cette étude a collecté des données de plus de 16500 personnes infectées par le VIH, de 1981 jusqu'aujourd'hui.¦Actuellement, plus de 7000 patients sont suivis tous les 6 mois. Parmi les analyses demandées au cours de ce suivi figure un test annuel de dépistage de la syphilis. Ce dépistage consiste en un test TPHA (Treponema Pallidum Haemagglutination Assay) où l'on observe l'hémagglutination de globules rouges qui ont absorbé des antigènes du tréponème, ou ses équivalents LIAISON et ARCHITECT.¦Si ce test TPHA est positif, un test VDRL, qui détecte des anticorps dirigés contre la cardiolipine, est effectué.¦Pour des raisons économiques, ce dépistage annuel systématique de la syphilis est remis en question par l'un des médecins praticiens participant à l'Etude Suisse de Cohorte VIH, estimant que ce dépistage ne devrait être demandé chaque année que chez les personnes étant identifiées comme à risque.¦Notre objectif est d'évaluer la nécessité de faire un dépistage de la syphilis annuel chez tous les patients de la Cohorte en comparaison à un dépistage annuel seulement chez le groupe jugé à risque.¦Pour pouvoir répondre à cette question, nous allons dans un premier temps faire une analyse descriptive : nous allons analyser quels patients ont développé une séroconversion en fonction de l'âge, du sexe et de la voie d'infection du VIH la plus probable (voie homosexuelle, hétérosexuelle ou consommation de drogues).¦Une conversion du test TPHA de négatif à positif n'est pas toujours synonyme d'infection à treponema pallidum. Une infection diagnostiquée au stade primaire et traitée efficacement ne provoque pas nécessairement des anticorps. A l'inverse, le test TPHA peut être faussement positif dû à une réaction croisée (p.ex. framboesie) ou non-spécifique (maladies auto-immunes). Pour l'analyse descriptive nous devons toutefois nous limiter à la séroconversion.¦Pour pouvoir faire cette analyse nous devons extraire certaines données, et procéder à un « nettoyage » de celles-ci : en effet, nous ne pouvons garder que les données des 700 patients ayant au moins un test initial de TPHA négatif, suivi d'un test TPHA positif avec un VDRL positif.¦Puis nous allons faire une étude « cas-témoins » pour comparer l'anamnèse sexuelle des patients présentant une séroconversion avec celle des patients qui n'ont pas développé d'anticorps, afin d'évaluer si nous pouvons définir, d'après l'anamnèse sexuelle, un groupe de sujets plus à risque de développer une syphilis. Cas et témoins seront stratifiés selon l'âge, le sexe et le mode d'infection du VIH.¦Comme troisième étape nous allons définir, pour un sous-échantillon, si le résultat positif du dépistage a permis de diagnostiquer la syphilis ou si le diagnostique avait déjà été établi grâce à la présence de symptômes.¦Etant donné que ce dépistage systématique est remis en cause pour des raisons financières, nous allons finalement, au cours de cette étude, estimer le coût des différentes options.¦Notre hypothèse, tirée d'après les déclarations de cas de syphilis de l'OFSP (Office Fédéral de la Santé Publique) et l'expérience des cliniciens, est que l'on trouve en effet que les homosexuels de moins de 50 ans représentent un grand pourcentage des personnes infectées par la syphilis. Cependant, nous ne savons pas si la fréquence d'infection des autres groupes de patients est suffisamment élevée pour justifier ce dépistage systématique.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La prévalence de l'obésité a considérablement augmentée ces dernières années et a un impact majeur sur la santé publique étant donné les diverses pathologies qui sont liées à ce trouble. Enjeu Diverses études ont montrées que les traitements actuels sont inefficaces à long terme. Une des raisons principales de cette inefficacité est l'importante prévalence de troubles alimentaires chez les patients obèses cherchant une perte de poids. Les personnes obèses atteintes de troubles du comportement alimentaire présentent des dysfonctions psychologiques plus fréquentes et plus sévères que les patients obèses sans troubles du comportement alimentaire. Des traitements spécifiques comprenant des supports psychologiques et la détection de dysfonctions psychologiques sont donc essentiels chez de tels patients afin d'améliorer les résultats de perte de poids à long terme. Article Jusqu'à aujourd'hui, aucune donnée n'était disponible concernant d'éventuels facteurs prédictifs pour l'identification de troubles psychologiques chez des patients souffrant de troubles du comportement alimentaire. Le but de notre étude est d'analyser les associations entre troubles du comportement alimentaire et dysfonction psychologique chez des patients obèses cherchant à perdre du poids et d'identifier des facteurs prédictifs permettant le développement de futurs outils diagnostiques. Notre étude a été menée à la consultation d'obésité du CHUV. Au final, 150 femmes tentant de perdre du poids ou de contrôler des compulsions alimentaires ont accepté de participer à notre étude. Différentes mesures anthropométriques et des informations sur leur histoire de poids et de régimes ont été récoltées. Les troubles du comportement alimentaire ainsi que le profil psychologique ont été évalués lors d'entretiens spécialisés à l'aide de divers questionnaires (BITE, EDI-2, BDI-II, IASTA-Y, RAS, Fear M and M). Conclusion Environ la moitié des patientes présentent des troubles du comportement alimentaire et 41% un haut degré de tels troubles. Environ 50% ont des symptômes modérés ou majeurs de dépression et 77% souffrent d'anxiété. Il n'y a pas de corrélation entre les marqueurs psychologiques et l'âge ou le BMI mais de fortes corrélations entre les marqueurs psychologiques et les divers composants du questionnaire BITE et la plupart des composants du questionnaire EDI-2. Ainsi, les femmes obèses cherchant à perdre du poids ont une grande prévalence de dysfonction psychologique. La prévalence et la sévérité des troubles du comportement alimentaire et des troubles psychologiques ne sont pas corrélées avec le degré et le type d'obésité mais la prévalence et la sévérité des troubles psychologiques augmentent avec le degré de troubles du comportement alimentaire. De plus, nos autres analyses ont montré que l'item Ineffectiveness de l'EDI-2 est la variable la plus liée au score psychologique.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Pour les sociologues, l'explication de l'action ne peut reposer sur la nature première de l'esprit (les mécanismes universels de détection et de traitement de l'information dont les sciences cognitives prétendent rendre compte) mais sur sa nature seconde (les raisons d'agir plus ou moins collectives qui le meublent). Même les paradigmes sociologiques les plus opposés s'accordent pour traiter le social et le culturel comme le résultat d'un patient travail de dénaturalisation qui creuse un fossé incompressible entre l'ordre réducteur des causes naturelles et l'ordre respectable, de facture mentale ou sociale, des raisons, entre les instincts de base de l'organisme et la logique de haut-niveau des significations partagées et des normes culturelles. Or, l'objectif du naturalisme est précisément le dépassement de la rupture interne entre l'humain et l'animal, entre l'histoire culturelle et l'histoire biologique. Il vise à harmoniser, dans le sens de "rendre compatible", les hypothèses et les résultats des sciences sociales avec ceux des sciences naturelles, entreprise qui incite la sociologie à expliciter et à réviser les modèles cognitifs et anthropologiques auxquels elle fait implicitement appel. Un des apports potentiels des sciences cognitives et, plus généralement, du naturalisme est donc d'améliorer, de remplacer ou de falsifier, au sens poppérien du terme, les modèles cognitifs et les conceptions anthropologiques sur lesquels se basent les sciences de la société.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Le présent rapport rend compte d'une partie du travail déjà réalisé sur l'inventaire des données disponibles dans la littérature scientifique sur l'exposition des travailleurs agricoles aux pesticides en France. La possibilité de tirer parti de la littérature produite sur d'autres pays que la France est également explorée dans deux études de cas (réentrée en arboriculture et insecticides en élevages ovins). Les résultats seront exposés par ailleurs car le recueil et l'analyse de données produites par ces études sur les situations d'exposition des personnes travaillant en milieu agricole dans des pays étrangers posent des problèmes méthodologiques spécifiques si on veut pouvoir en tirer des enseignements pour la France. En matière de revue de la littérature scientifique, l'idéal de l'exhaustivité est généralement impossible à atteindre pour des raisons qui tiennent à la croissance exponentielle du nombre de publications scientifiques, à la pluralité des langues de publication, à la fragmentation et à l'accessibilité limitée des bases documentaires ... Nous pensons avoir recueilli tous les documents accessibles, mais peut-être certains nous ont-il échappé. C'est pourquoi le présent rapport est à la fois un exposé de résultats et un appel à contributions complémentaires. Il explicite les détails de la démarche adoptée (critères de sélection des articles, traçabilité des étapes de l'analyse ...) sous une forme qui permet à chacun d'avoir prise sur les résultats mais aussi de proposer des compléments au recensement réalisé. Il vise à être la première brique d'une base de connaissances partagée qui permette de capitaliser les données disponibles et qui puisse être mise à jour régulièrement.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Résumé : La radiothérapie par modulation d'intensité (IMRT) est une technique de traitement qui utilise des faisceaux dont la fluence de rayonnement est modulée. L'IMRT, largement utilisée dans les pays industrialisés, permet d'atteindre une meilleure homogénéité de la dose à l'intérieur du volume cible et de réduire la dose aux organes à risque. Une méthode usuelle pour réaliser pratiquement la modulation des faisceaux est de sommer de petits faisceaux (segments) qui ont la même incidence. Cette technique est appelée IMRT step-and-shoot. Dans le contexte clinique, il est nécessaire de vérifier les plans de traitement des patients avant la première irradiation. Cette question n'est toujours pas résolue de manière satisfaisante. En effet, un calcul indépendant des unités moniteur (représentatif de la pondération des chaque segment) ne peut pas être réalisé pour les traitements IMRT step-and-shoot, car les poids des segments ne sont pas connus à priori, mais calculés au moment de la planification inverse. Par ailleurs, la vérification des plans de traitement par comparaison avec des mesures prend du temps et ne restitue pas la géométrie exacte du traitement. Dans ce travail, une méthode indépendante de calcul des plans de traitement IMRT step-and-shoot est décrite. Cette méthode est basée sur le code Monte Carlo EGSnrc/BEAMnrc, dont la modélisation de la tête de l'accélérateur linéaire a été validée dans une large gamme de situations. Les segments d'un plan de traitement IMRT sont simulés individuellement dans la géométrie exacte du traitement. Ensuite, les distributions de dose sont converties en dose absorbée dans l'eau par unité moniteur. La dose totale du traitement dans chaque élément de volume du patient (voxel) peut être exprimée comme une équation matricielle linéaire des unités moniteur et de la dose par unité moniteur de chacun des faisceaux. La résolution de cette équation est effectuée par l'inversion d'une matrice à l'aide de l'algorithme dit Non-Negative Least Square fit (NNLS). L'ensemble des voxels contenus dans le volume patient ne pouvant être utilisés dans le calcul pour des raisons de limitations informatiques, plusieurs possibilités de sélection ont été testées. Le meilleur choix consiste à utiliser les voxels contenus dans le Volume Cible de Planification (PTV). La méthode proposée dans ce travail a été testée avec huit cas cliniques représentatifs des traitements habituels de radiothérapie. Les unités moniteur obtenues conduisent à des distributions de dose globale cliniquement équivalentes à celles issues du logiciel de planification des traitements. Ainsi, cette méthode indépendante de calcul des unités moniteur pour l'IMRT step-andshootest validée pour une utilisation clinique. Par analogie, il serait possible d'envisager d'appliquer une méthode similaire pour d'autres modalités de traitement comme par exemple la tomothérapie. Abstract : Intensity Modulated RadioTherapy (IMRT) is a treatment technique that uses modulated beam fluence. IMRT is now widespread in more advanced countries, due to its improvement of dose conformation around target volume, and its ability to lower doses to organs at risk in complex clinical cases. One way to carry out beam modulation is to sum smaller beams (beamlets) with the same incidence. This technique is called step-and-shoot IMRT. In a clinical context, it is necessary to verify treatment plans before the first irradiation. IMRT Plan verification is still an issue for this technique. Independent monitor unit calculation (representative of the weight of each beamlet) can indeed not be performed for IMRT step-and-shoot, because beamlet weights are not known a priori, but calculated by inverse planning. Besides, treatment plan verification by comparison with measured data is time consuming and performed in a simple geometry, usually in a cubic water phantom with all machine angles set to zero. In this work, an independent method for monitor unit calculation for step-and-shoot IMRT is described. This method is based on the Monte Carlo code EGSnrc/BEAMnrc. The Monte Carlo model of the head of the linear accelerator is validated by comparison of simulated and measured dose distributions in a large range of situations. The beamlets of an IMRT treatment plan are calculated individually by Monte Carlo, in the exact geometry of the treatment. Then, the dose distributions of the beamlets are converted in absorbed dose to water per monitor unit. The dose of the whole treatment in each volume element (voxel) can be expressed through a linear matrix equation of the monitor units and dose per monitor unit of every beamlets. This equation is solved by a Non-Negative Least Sqvare fif algorithm (NNLS). However, not every voxels inside the patient volume can be used in order to solve this equation, because of computer limitations. Several ways of voxel selection have been tested and the best choice consists in using voxels inside the Planning Target Volume (PTV). The method presented in this work was tested with eight clinical cases, which were representative of usual radiotherapy treatments. The monitor units obtained lead to clinically equivalent global dose distributions. Thus, this independent monitor unit calculation method for step-and-shoot IMRT is validated and can therefore be used in a clinical routine. It would be possible to consider applying a similar method for other treatment modalities, such as for instance tomotherapy or volumetric modulated arc therapy.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les recommandations en termes de prévention contre la malaria pour les pays à risques modéré à faible diffèrent entre les pays, malgré le fait que les personnes soient exposées à un risque identique dans les pays qu'ils visitent. Pour inclure les voyageurs dans la réflexion, des outils de partage de la décision ont été développés et testés dans cette population. Leur utilisation a montré que la majorité des personnes choisissent de ne pas prendre de chimioprophylaxie en avançant des raisons valides. Le développement d'aides décisionnelles répondant à des critères reconnus est prévu et permettra d'améliorer la pertinence des recommandations. Les aides décisionnelles permettront aussi aux voyageurs de faire un choix de prévention avec les soignants au plus près de leurs valeurs et préférences, tout en respectant les règles de l'éthique médicale. Recommendations for malaria prevention for travelers planning a trip in medium to low risk countries differ between countries, despite the fact that people are exposed to the same risk in the travelled country. Decision aids have been developed and tested in a population of travelers planning a trip in such countries n order to present travelers the various prevention options and involve them in the decision. The use of the decision aid showed that he majority of people choose not to take chemoprophylaxis and that they could motivate their choice with valid reasons. The development of decision aids based on recognized quality criteria is foreseen; these will allow to improving the relevance of the recommendations and enable travelers to choose a prevention option that will be the closest to their values and preferences while following to the principles of medical ethics.