998 resultados para Bien-être social
Resumo:
Résumé : Malgré les immenses progrès réalisés depuis plusieurs années en médecine obstétricale ainsi qu'en réanimation néonatale et en recherche expérimentale, l'asphyxie périnatale, une situation de manque d'oxygène autour du moment de la naissance, reste une cause majeure de mortalité et de morbidité neurologique à long terme chez l'enfant (retard mental, paralysie cérébrale, épilepsie, problèmes d'apprentissages) sans toutefois de traitement pharmacologique réel. La nécessité de développer de nouvelles stratégies thérapeutiques pour les complications de l'asphyxie périnatale est donc aujourd'hui encore essentielle. Le but général de ce travail est l'identification de nouvelles cibles thérapeutiques impliquées dans des mécanismes moléculaires pathologiques induits par l'hypoxie-ischémie (HI) dans le cerveau immature. Pour cela, le modèle d'asphyxie périnatale (proche du terme) le plus reconnu chez le rongeur a été développé (modèle de Rice et Vannucci). Il consiste en la ligature permanente d'une artère carotide commune (ischémie) chez le raton de 7 jours combinée à une période d'hypoxie à 8% d'oxygène. Il permet ainsi d'étudier les lésions de type hypoxique-ischémique dans différentes régions cérébrales dont le cortex, l'hippocampe, le striatum et le thalamus. La première partie de ce travail a abordé le rôle de deux voies de MAPK, JNK et p38, après HI néonatale chez le raton à l'aide de peptides inhibiteurs. Tout d'abord, nous avons démontré que D-JNKI1, un peptide inhibiteur de la voie de JNK présentant de fortes propriétés neuroprotectrices dans des modèles d'ischémie cérébrale adulte ainsi que chez le jeune raton, peut intervenir sur différentes voies de mort dont l'activation des calpaïnes (marqueur de la nécrose précoce), l'activation de la caspase-3 (marqueur de l'apoptose) et l'expression de LC3-II (marqueur de macroautophagie). Malgré ces effets positifs le traitement au D-JNKI1 ne modifie pas l'étendue de la lésion cérébrale. L'action limitée de D-JNKI1 peut s'expliquer par une implication modérée des JNKs (faiblement activées et principalement l'isotype JNK3) après HI néonatale sévère. Au contraire, l'inhibition de la voie de nNOS/p38 par le peptide DTAT-GESV permet une augmentation de 20% du volume du tissu sain à court et long terme. Le second projet a étudié les effets de l'HI néonatale sur l'autophagie neuronale. En effet, l'autophagie est un processus catabolique essentiel au bien-être de la cellule. Le type principal d'autophagie (« macroautophagie » , que nous appellerons par la suite « autophagie ») consiste en la séquestration d'éléments à dégrader (protéines ou organelles déficients) dans un compartiment spécialisé, l'autophagosome, qui fusionne avec un lysosome pour former un autolysosome où le contenu est dégradé par les hydrolases lysosomales. Depuis peu, l'excès ou la dérégulation de l'autoptiagie a pu être impliqué dans la mort cellulaire en certaines conditions de stress. Ce travail démontre que l'HI néonatale chez le raton active fortement le flux autophagique, c'est-à-dire augmente la formation des autophagosomes et des autolysosomes, dans les neurones en souffrance. De plus, la relation entre l'autophagie et l'apoptose varie selon la région cérébrale. En effet, alors que dans le cortex les neurones en voie de mort présentent des caractéristiques mixtes apoptotiques et autophagiques, ceux du CA3 sont essentiellement autophagiques et ceux du CA1 sont principalement apoptotiques. L'induction de l'autophagie après HI néonatale semble donc participer à la mort neuronale soit par l'enclenchement de l'apoptose soit comme mécanisme de mort en soi. Afin de comprendre la relation pouvant exister entre autophagie et apoptase un troisième projet a été réalisé sur des cultures primaires de neurones corticaux exposés à un stimulus apoptotique classique, la staurosporine (STS). Nous avons démontré que l'apoptose induite par la STS était précédée et accompagnée par une forte activation du flux autophagique neuronal. L'inhibition de l'autophagie de manière pharmacologique (3-MA) ou plus spécifiquement par ARNs d'interférence dirigés contre deux protéines autophagiques importantes (Atg7 et Atg5) a permis de mettre en évidence des rôles multiples de l'autophagie dans la mort neuronale. En effet, l'autophagie prend non seulement part à une voie de mort parallèle à l'apoptose pouvant être impliquée dans l'activation des calpaïnes, mais est également partiellement responsable de l'induction des voies apoptotiques (activation de la caspase-3 et translocation nucléaire d'AIF). En conclusion, ce travail a montré que l'inhibition de JNK par D-JNKI1 n'est pas un outil neuroprotecteur efficace pour diminuer la mort neuronale provoquée par l'asphyxie périnatalé sévère, et met en lumière deux autres voies thérapeutiques beaucoup plus prometteuses, l'inhibition de nNOS/p38 ou de l'autophagie. ABSTRACT : Despite enormous progress over the last«decades in obstetrical and neonatal medicine and experimental research, perinatal asphyxia, a situation of lack of oxygen around the time of the birth, remains a major cause of mortality and long term neurological morbidity in children (mental retardation, cerebral palsy, epilepsy, learning difficulties) without any effective treatment. It is therefore essential to develop new therapeutic strategies for the complications of perinatal asphyxia. The overall aim of this work was to identify new therapeutic targets involved in pathological molecular mechanisms induced by hypoxia-ischemia (HI) in the immature brain. For this purpose, the most relevant model of perinatal asphyxia (near term) in rodents has been developed (model of Rice and Vannucci). It consists in the permanent ligation of one common carotid artery (ischemia) in the 7-day-old rat combined with a period of hypoxia at 8% oxygen. This model allows the study of the hypoxic-ischemic lesion in different brain regions including the cortex, hippocampus, striatum and thalamus. The first part of this work addressed the role of two MAPK pathways (JNK and p38) after rat neonatal HI using inhibitory peptides. First, we demonstrated that D-JNKI1, a JNK peptide inhibitor presenting strong neuroprotective properties in models of cerebral ischemia in adult and young rats, could affect different cell death mechanisms including the activation of calpain (a marker of necrosis) and caspase-3 (a marker of apoptosis), and the expression of LC3-II (a marker of macroautophagy). Despite these positive effects, D-JNKI1 did not modify the extent of brain damage. The limited action of D-JNKI1 can be explained by the fact that JNKs were only moderately involved (weakly activated and principally the JNK3 isotype) after severe neonatal HI. In contrast, inhibition of nNOS/p38 by the peptide D-TAT-GESV increased the surviving tissue volume by around 20% at short and long term. The second project investigated the effects of neonatal HI on neuronal autophagy. Indeed, autophagy is a catabolic process essential to the well-being of the cell. The principal type of autophagy ("macroautophagy", that we shall henceforth call "autophagy") involves the sequestration of elements to be degraded (deficient proteins or organelles) in a specialized compartment, the autophagosome, which fuses with a lysosome to form an autolysosome where the content is degraded by lysosomal hydrolases. Recently, an excess or deregulation of autophagy has been implicated in cell death in some stress conditions. The present study demonstrated that rat neonatal HI highly enhanced autophagic flux, i.e. increased autophagosome and autolysosome formation, in stressed neurons. Moreover, the relationship between autophagy and apoptosis varies according to the brain region. Indeed, whereas dying neurons in the cortex exhibited mixed features of apoptosis and autophagy, those in CA3 were primarily autophagíc and those in CA1 were mainly apoptotic. The induction of autophagy after neonatal HI seems to participate in neuronal death either by triggering apoptosis or as a death mechanism per se. To understand the relationships that may exist between autophagy and apoptosis, a third project has been conducted using primary cortical neuronal cultures exposed to a classical apoptotic stimulus, staurosporine (STS). We demonstrated that STS-induced apoptosis was preceded and accompanied by a strong activation of neuronal autophagic flux. Inhibition of autophagy pharmacologically (3-MA) or more specifically by RNA interference directed against two important autophagic proteins (Atg7 and AtgS) showed multiple roles of autophagy in neuronal death. Indeed, autophagy was not only involved in a death pathway parallel to apoptosis possibly involved in the activation of calpains, but was also partially responsible for the induction of apoptotic pathways (caspase-3 activation and AIF nuclear translocation). In conclusion, this study showed that JNK inhibition by D-JNKI1 is not an effective neuroprotective tool for decreasing neuronal death following severe perinatal asphyxia, but highlighted two more promising therapeutic approaches, inhibition of the nNOSlp38 pathway or of autophagy.
Resumo:
Nombreux sont les philosophes et psychologues qui voient en l'altruisme une des plus grandes vertus humaines. Certains en font même une composante nécessaire à la morale. Sachant cela, il est assez piquant de constater que les biologistes trouvent de l'altruisme dans le monde animal et que, plus récemment, il est également devenu un objet de recherche en économie. L'hétérogénéité des disciplines qui traitent de l'altruisme en ont fait une notion extrêmement complexe et difficile à saisir. L'objectif de cet article est d'explorer les différents sens donnés à cette notion et de comprendre le rôle qu'elle joue dans les débats propres aux sciences qui l'utilisent. Il s'agira également de réfléchir aux liens qu'entretiennent les diverses formes d'altruisme, entre elles d'une part, et avec la morale d'autre part.La première partie de l'article est consacrée à trois types de débats faisant usage de la notiond'altruisme. Nous verrons que chacun d'eux prend place dans le cadre d'une science ou d'un groupe de sciences différentes et que la signification de l'altruisme s'y adapte. Le premier débat a pour cadre la biologie et utilise la notion d'« altruisme biologique » ; il s'agit d'expliquer comment un comportement désavantageux du point de vue de la survie et de la reproduction a pu être sélectionné au fil de l'évolution. Le second débat a lieu au sein des sciences sociales (plus particulièrement en économie et anthropologie évolutionniste) et se centre sur la notion d'« altruisme comportemental » ; il s'agit de montrer que des personnes ordinaires ne se comportement souvent pas en maximisateurs rationnels de leur gains propres, comme le prédirait la théorie économique néoclassique. Le troisième débat repose sur la notion d'« altruisme psychologique » et engage particulièrement les philosophes, les psychologues mais également certains économistes et neuroscientifiques ; il s'agit de déterminer si les êtres humains sont capables d'agir en fonction de motivations dirigées vers le bien-être d'autrui. La seconde partie de l'article a pour objectif de mettre en relation ces trois formes d'altruisme ainsi que leur rapport avec la morale.
Resumo:
SUMMARY (Français au-dessous)After the Second World War, the role of the victim in criminal conflict became an objectof interest for academics. But it was only in the 1960s that the importance of providingprotection and assistance to crime victims was highlighted in particular by the victims'movement, which inaugurated a new era of criminal justice in systems throughout the world.Moving beyond just the role of controlling crime and punishing the offender, the criminaljustice system also began to contribute to the victims' rehabilitation and to help the victim tomove on from the event psychologically and emotionally.Although some criminological research has been conducted, to date the effect that thecriminal justice system and victim support services have on the well-being of crime victims isstill uncertain.The current study sought to understand better the healing process of victims of crime, thepotential consequences of their participation on the criminal justice system, and the supportof victim centers. Moreover, it aimed to find out whether the existence of a Victim SupportAct would change the treatment that the victim receives in the criminal justice system. Thusthis research was conducted based in two countries - Switzerland and Brazil - where theoutcome of the victims' movement on the criminal justice system was different, as was theparticipation of the victim in the criminal justice system and the government's provision ofsupport.In order to conduct this research we employed the qualitative method, which is the mostefficient to gather sensitive information. Interviews with crime victims were the main sourceof information. Hearing observation and document research were used as complementarysources.The results of this research show that victims who have contact with the criminal justicesystem and victim services are not more likely to recover than those who had no contact. Thisis to say, the support offered has no major effects; the influence of the criminal justice systemand the victim support services in the emotional well-being of crime victims is rather neutral.However, considering that the sample is not representative, findings are not expected to begeneralized. Instead, findings may give insight to practitioners or to future criminal justicepolicy makers, suggesting what may work to improve the emotional well-being of crimevictims, as well as suggesting further studies.________________________________________________________________________________RÉSUMÉAprès la deuxième guerre mondiale, le rôle de la victime est devenu un objet d'intérêtpour les académiciens. Par contre, c'est seulement dans les années 60 que l'importance defournir de la protection et de l'appui aux victimes d'infractions a été accentuée, en particulierpar un mouvement ― victims' mouvement ―, qui a inauguré un nouveau temps dans lajustice pénale des systèmes juridiques du monde entier. A part la fonction de contrôler lecrime et de punir le délinquant, le système de justice pénale joue également un rôle dans laréhabilitation des victimes.Malgré la réalisation de plusieurs recherches criminologiques sur ce sujet, les effets que lesystème de la justice pénale et les centres d'aides aux victimes ont sur le bien-être desvictimes d'infractions est encore incertain.Ainsi cette étude cherche à mieux comprendre le processus de réhabilitation des victimesd'infraction, les conséquences de leur participation dans le système de justice pénale ainsique la portée de l'appui des centres d'aide. De plus, l'étude vise à découvrir si l'existenced'une loi d'aide aux victimes, particulièrement la Loi d'Aide aux Victimes d'InfractionsLAVI, est susceptible de changer le traitement que la victime reçoit dans le système de lajustice pénale. Pour cela, elle a été conduite dans deux pays - la Suisse et le Brésil - où lesconséquences du mouvement des victimes sur le système de la justice pénale a eu undéveloppement différent; il en va de même pour la participation de la victime dans laprocédure pénale et pour l'appui offert par l'Etat.Cette étude utilise la méthode qualitative qui est la plus efficace pour le recueild'informations sensibles. La plus importante source des données sont les interviews avec lesvictimes. L'observation des audiences et l'analyse de documents ont été utilisés en tant quesources d'information complementáire.Les résultats de cette recherche montrent que les victimes qui ont porté plainte et qui ontreçu l'appui des centres d'aides ne sont pas mieux rétablies que celles qui n'ont rien fait. C'estainsi que nous avons conclu que les services offerts n'ont aucune influence dans ce processus.Cependant, considérant que notre échantillon n'est pas représentatif, il n'est pas possible degénéraliser nos résultats. Néanmoins, ceux-ci peuvent éclairer les praticiens ou les futursdécideurs politiques de la justice pénale, suggérant ce qui peut fonctionner pour lerétablissement des victimes d'infraction, aussi bien que suggérer d'autres études.
Resumo:
Le devenir global de cette population est important à prendre en considération, puisqu'il ne s'agit pas uniquement d'améliorer la survie de ces patients, mais également de s'assurer que leur qualité de vie et leur bien-être global soient adéquats.
Resumo:
Quelles représentations de la schizophrénie les psychiatres vont-ils construire à travers l'étude des écrits asilaires des patients et des scientifiques dans la première moitié du XXème siècle? Le psychiatre helvétique Hans Steck (1891-1980), qui a travaillé à l'Asile psychiatrique de Cery de 1920 à 1960 et qui s'est fait connaître du public grâce à l'oeuvre d'Aloïse Corbaz, reconnue comme auteure d'art brut par Jean Dubuffet en 1945, constitue le fil rouge de la thèse. Dans le contexte des mouvements tels que Γ "art psychopathologique" et Γ "art brut", Steck étudie les théories de "la mentalité primitive et les peintures magiques des schizophrènes". En 1927, il se tourne vers les théories évolutionnistes de la régression et les premières études de Lévy-Bruhl pour avancer l'idée qu'il existe un "parallélisme schizo-primitif'. Puis il développe des explications de la pensée délirante, à partir des théories exposées lors du Premier Congrès International de Psychiatrie en 1950. Enfin, adoptant la perspective phénoménologique, il explique que "la fonction de l'art et la fonction du délire visent à reconstituer un monde viable pour le malade". En ce sens, l'expression artistique, bien que n'entrant pas dans le champ de la psychothérapie, fournit des indicateurs de l'état psychique du malade en même temps qu'elle contribue à son bien-être. Sont abordés les problèmes concernant la reconnaissance de Γ "auteur" interné, dont les oeuvres appartiennent soit aux archives médicales, soit au musée. La pérennité des critères qui définissent les oeuvres d'"art psychopathologique" ou d'"art brut" est également mise en question. Enfin, le rôle essentiel de l'écriture à l'hôpital, tant pour les patients que pour les soignants, fait l'objet de nombreux développements. - What representations of schizophrenia have psychiatrists been constructing when studying writings by patients and scientists in mental asylums in the first half of the 20th century? The Swiss psychiatrist Hans Steck (1891-1980) is the protagonist of this dissertation. From 1920 to 1960, he has been working at the "Asile psychiatrique de Cery" near Lausanne. Steck is known thanks to the paintings of Aloïse Corbaz, an artist recognized by Jean Dubuffet as belonging to the "art brut" movement in 1945. In the context of movements like "art psychopathologique" and "art brut," Steck studies theories of "primitive character and magic paintings of schizophrenics." In 1927, Steck engages with theories of regression and Lévy-Bruhl's early studies in order to push the idea of a "parallelism schizo-primitif." On the occasion of the First International Congress of psychiatry held in Paris in 1950, Steck develops explanations for the "pensée délirante." Finally, turning to a phenomenological point of view, he explains, "the function of art and the function of the delusion help the patient to reconstruct a viable environment for the sick person." In this way, artistic expression is not thought of as a psychotherapeutical means, but provides insight into the state of mind of a mentally sick person at the same time as contributing to his well-being. The dissertation discusses whether the "author's" work belongs in medical archives or museums. The continuity of "psychopathological art" and "art brut" criteria will be discussed. Finally, the essential role that writing played in the hospital for the patients as well as for the medical staff is presented.
Resumo:
[Table des matières] 1. Zusammenfassung. 2. Introduction et contexte de l'étude. 3. Méthode. 4. Besoins des personnes vivant avec le VIH/sida, amis et partenaires. 5. Etudes donnant des indications sur certaines catégories de besoins des personnes séropositives. 5.1.Programme national VIH/sida de 1999 à 2003. 5. 2. Test de dépistage du VIH. 5.3. Prophylaxie post exposition VIH (PEP). 5.4. La sexualité des personnes vivant avec le VIH/sida. 5.5. Discriminations institutionnelles à l'encontre des personnes vivant avec le VIH en Suisse. 5.6. Evaluation de la stratégie de prévention du sida en Suisse sur mandat de l'Office fédéral de la santé publique : sixième rapport de synthèse. 5.7. Activité de prévention du sida des médecins de premier recours, le counselling pré-test. 5.8. Comparaison 1989/1997 : est-ce que l'amélioration du traitement médical se répercute aussi sur la perception des patients de leur maladie ? 5.9. Histoires individuelles avec le VIH, bien-être psychophysique, coping, charge psychosociale. 5.10. Etude médico-ethnologique sur la prise en charge et les choix thérapeutiques. 5.11. Qualité des soins d'un service ambulatoire spécialisé dans le suivi des patients infectés par le VIH, le point de vue des patients. 5.12. Prévention de la transmission du VIH dans les prisons suisses : analyse secondaire sur la base de la littérature disponible. 5. 13. Recommandations. 5.14. Formation VIH/sida 1989-1999. 5.15. Etude sur les nouveaux traitements du VIH/sida dans la perspective des patients. 5.16. Projet SESAM. 5.17. Etude : Evaluation du site HivNet. 5.18. Etudes relatives à la paupérisation des personnes vivant avec le VIH. 5.19. Travail, revenu et pauvreté chez les personnes vivant avec le VIH/sida de la "Swiss Cohort Study". 5.20. Séropositivité, sida et les assurances sociales. 5.21. Politiques et pratqieus cantonales en matière de prévention VIH/sida et d'éducation sexuelle à l'école. 5.22. Données épidémiologiques sur le VIH/sida issues du système de surveillance. 5.23. Données descriptives issues de la Swiss HIV Cohort Study. 6. Tableau récapitulatif : conclusions et recommandations.
Resumo:
L'analyse longitudinale et transversale des données du PSM montre que l'augmentation des travaux ménagers consécutive à l'entrée en cohabitation, au mariage et surtout à la parentalité est prise en charge par les femmes, l'investissement masculin restant stable. Le genre semble bien être ici un facteur explicatif central. En outre, l'hétérogénéité des temps ménagers féminins s'expliquerait par le fait que les femmes ne mobilisent leurs ressources personnelles, ni pour entrer en négociation avec leur partenaire et le conduire à s'investir plus, ni pour remettre en question la distribution traditionnelle des tâches. Elles les utilisent plutôt pour exploiter les opportunités contextuelles à disposition afin de diminuer une charge de travail qui, sinon, leur reviendrait.
Resumo:
L'objectif de ce mémoire de master est de créer un système d'indicateurs de résultats pour évaluer l'impact des soins à domicile sur la qualité de vie des personnes âgées fragiles et dépendantes vivant dans le canton de Vaud. Ainsi, le premier chapitre présente le système des soins à domicile dans le canton de Vaud dans son ensemble et, en particulier, le panel d'acteurs qui y participe, soit les prestataires, les co-acteurs et les bénéficiaires. Afin de connaître l'état de la recherche sur le sujet, une revue de la littérature sur l'évaluation des soins à domicile tant dans le canton de Vaud qu'au niveau international est développée au chapitre 2. Le concept de qualité de vie est défini au chapitre 3. Les différentes mesures de ce concept y sont également détaillées ainsi que les dimensions les plus citées dans la littérature, tant objectives que subjectives. Le chapitre 4 expose la recherche « terrain » effectuée auprès d'une dizaine de client-e-s de CMS par le biais d'interviews. Une fois les différentes étapes (hypothèse de départ, échantillonnage, grille d'entretien) exposées, les rencontres avec les client-e-s de CMS les plus marquantes sont décrites. Enfin, au chapitre 5, sont présentés les onze indicateurs de résultats en lien avec les différentes dimensions de la qualité de vie : la santé, les relations sociales, le statut socio-économique, le domicile, les capacités fonctionnelles et le bien-être.
Resumo:
Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.
Resumo:
L'Ouverture émotionnelle (OE) est une nouvelle approche théorique et pratique qui s'inscrit dans le domaine du vécu et du traitement des émotions. Le modèle de l'OE se base sur l'évaluation et l'analyse de cinq dimensions élémentaires ancrées dans les théories modernes des émotions (la représentation cognitive des états émotionnels, la perception des indicateurs émotionnels corporels internes et externes, l'expression et la communication des émotions et la régulation des émotions). Ces éléments permettent de caractériser l'affectivité des personnes et de réfléchir ainsi à une prise en charge la plus adaptée possible. Cet ouvrage se veut un véritable guide de la pratique de l'Ouverture émotionnelle tant pour les professionnels de la santé mentale (psychologues, psychothérapeutes...) que pour les étudiants en psychologie. Après une présentation des bases conceptuelles de l'OE et de ses aspects développementaux, les auteurs exposent de façon détaillée les résultats empiriques du modèle dans différents domaines de la psychologie clinique et de la psychologie de la santé (troubles de la personnalité, troubles de la dépendance, troubles anxieux, phobies, troubles somatoformes ou burnout, satisfaction dans le couple, bien-être individuel). Enfin ils fournissent des pistes et conseils pour l'application pratique du modèle de l'OE en intervention psychologique et en psychothérapie. En annexe, le lecteur trouvera l'ensemble des instruments (questionnaires et instruments d'auto-observation), sur lesquels repose le modèle de l'OE et qui sont inédits à ce jour.
Resumo:
RESUME Cette thèse se situe à la frontière de la recherche en économie du développement et du commerce international et vise à intégrer les apports de l'économie géographique. Le premier chapitre s'intéresse aux effets de création et de détournement de commerce au sein des accords régionaux entre pays en développement et combine une approche gravitaire et une estimation non paramétrique des effets de commerce. Cette analyse confirme un effet de commerce non monotone pour six accords régionaux couvrant l'Afrique, l'Amérique Latine et l'Asie (AFTA, CAN, CACM, CEDEAO, MERCO SUR et SADC) sur la période 1960-1996. Les accords signés dans les années 90 (AFTA, CAN, MERCOSUR et SADC) semblent avoir induis une amélioration du bien-être de leurs membres mais avec un impact variable sur le reste du monde, tandis que les accords plus anciens (CEDEAO et CACM) semblent montrer que les effets de commerce et de bien-être se réduisent pour finir par s'annuler à mesure que le nombre d'années de participation des Etats membres augmente. Le deuxième chapitre pose la question de l'impact de la géographie sur les échanges Sud-Sud. Ce chapitre innove par rapport aux méthodes classiques d'estimation en dérivant une équation de commerce à partir de l'hypothèse d'Armington et en intégrant une fonction de coût de transport qui prend en compte la spécificité des pays de l'UEMOA. Les estimations donnent des effets convaincants quant au rôle de l'enclavement et des infrastructures: deux pays enclavés de l'UEMOA commercent 92% moins que deux autres pays quelconques, tandis que traverser un pays de transit au sein de l'espace UEMOA augmente de 6% les coûts de transport, et que bitumer toutes les routes inter-Etat de l'Union induirait trois fois plus de commerce intra-UEMOA. Le chapitre 3 s'intéresse à la persistance des différences de développement au sein des accords régionaux entre pays en développement. Il montre que la géographie différenciée des pays du Sud membres d'un accord induit un impact asymétrique de celui-ci sur ses membres. Il s'agit d'un modèle stylisé de trois pays dont deux ayant conclu un accord régional. Les résultats obtenus par simulation montrent qu'une meilleure dotation en infrastructure d'un membre de l'accord régional lui permet d'attirer une plus grande part industrielle à mesure que les coûts de transport au sein de l'accord régional sont baissés, ce qui conduit à un développement inégal entre les membres. Si les niveaux d'infrastructure domestique de transport sont harmonisés au sein des pays membres de l'accord d'intégration, leurs parts industrielles peuvent converger au détriment des pays restés hors de l'union. Le chapitre 4 s'intéresse à des questions d'économie urbaine en étudiant comment l'interaction entre rendements croissants et coûts de transport détermine la localisation des activités et des travailleurs au sein d'un pays ou d'une région. Le modèle développé reproduit un fait stylisé observé à l'intérieur des centres métropolitains des USA: sur une période longue (1850-1990), on observe une spécialisation croissante des centres urbains et de leurs périphéries associée à une évolution croissante puis décroissante de la population des centres urbains par rapport à leurs périphéries. Ce résultat peut se transférer dans un contexte en développement avec une zone centrale et une zone périphérique: à mesure que l'accessibilité des régions s'améliore, ces régions se spécialiseront et la région principale, d'abord plus importante (en termes de nombre de travailleurs) va finir par se réduire à une taille identique à celle de la région périphérique.
Resumo:
Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.
Resumo:
Formatés par une société qui accorde une place prépondéranze au bien-être et qui nous incite à prendre soin de notre apparence physique, nous sommes paradoxalement confrontés à un monde graduellemet gagné par l'obésité et les maladies qui lui sont associées. Celles-ci reflètent l'inadéquation entre les régimes alimentaires modernes, la sédentarité croissante des populations et le patrimoine génétique que nous avons hérité de nos ancêtres.Comment parvenir à nous nourrir en bonne intelligence avec nos gènes et notre style de vie ? La réponse se trouve peut-être du coté de la génomique, ou nutrigénomique, cette toute nouvelle discipline qui s'intéresse à l'influence de l'alimentation sur les gènes.Médecine, biologie, sciences humaines, industrie pharmaceutique et industrie agroalimentaire trouveront avantage à s'associer pour faire de la nutrigénomique un élément d'innovation scientifique et sociétale dans la prévention et la lutte contre les maladies liées à des régimes inappropriés.