224 resultados para Finances--Gestion du risque--Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectifs: Connaître les derniers développements techniques dans l'exploration de l'embolie pulmonaire aigue en imagerie (scanner et IRM). Connaître l'intérêt de la probabilité clinique pré-test dans l'indication de l'imagerie. Savoir faire une interprétation intégrée du scanner dans de l'embolie pulmonaire aiguë. Connaître chez les particularités de réalisation d'un examen chez la femme enceinte. Messages à retenir: Le scanner reste indiqué si les D-dimers sont négatifs et la probabilité clinique pré-test d'une embolie pulmonaire aiguë est élevée. Le scanner a une valeur diagnostique mais aussi une valeur pronostique dans la stratification du risque d'événement fatal chez les patients porteurs d'une embolie pulmonaire aiguë. Résumé: Durant la dernière décennie, l'imagerie en coupe s'est imposée comme moyen diagnostique incontournable dans l'embolie pulmonaire aiguë (EPA). Les nouveaux développements techniques ainsi que les récentes études ont contribué à mieux définir la valeur diagnostique du scanner et de l'IRM. En particulier, trois questions méritent d'être discutées : La probabilité clinique pré-test a-t-elle une importance dans l'indication de l'imagerie? ; (2) Faut-il synchroniser le scanner au rythme cardiaque devant une suspicion d'EPA ? ; (3) Quelles précautions faut-il prendre chez la femme enceinte ? Par ailleurs, La valeur pronostique du scanner mérite d'être connue et utilisée à bon escient.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract: The increasingly high hygienic standards characterizing westernized societies correlate with an increasingly high prevalence of allergic disease. Initially based on these observations, the hygiene hypothesis postulates that reduced microbial stimulation during infancy impairs the immune system development and increases the risk of allergy. Moreover, there is increasing evidence that the crosstalk existing between the intestine and the resident microbiota is crucial for gut homeostasis. In particular, bacterial colonization of the gut affects the integrity of the gut barrier and stimulates the development of the gut associated immune tissue, both phenomena being essential for the immune system to mount a controlled response to food antigens. Therefore, alterations in the microbial colonization process, by compromising the barrier homeostasis, may increase the risk of food allergy. In this context, antibiotic treatment, frequently prescribed during infancy, affects gut colonization by bacteria. However, little is known about the impact of alterations in the colonization process on the maturation of the gut barrier and on the immunological response to oral antigens. The objective of this work was to determine the impact of a commercial antibiotic preparation employed in pediatric settings on the gut barrier status at the critical period of the suckling/weaning transition and to evaluate the physiological consequences of this treatment in terms of immune response to food antigens. We established an antibiotic-treated suckling rat model relevant to the pediatric population in terms of type, dose and route of administration of the antibiotic and of changes in the patterns of microbial colonization. Oral tolerance to a novel luminal antigen (ovalbumin) was impaired when the antigen was introduced during antibiotic treatment. These results paralleled to alterations in the intestinal permeability to macromolecules and reduced intestinal expression of genes coding for the major histocomptatibility complex II molecules, which suggest a reduced capacity of antigen handling and presentation in the intestine of the antibiotic-treated animals. In addition, low luminal IgA levels and reduced intestinal expression of genes coding for antimicrobial proteins suggest that protection against pathogens was reduced under antibiotic treatment. In conclusion, we observed in suckling rats that treatment with abroad-spectrum antibiotic commonly used in pediatric practices reduced the capacity of the immune system to develop tolerance. The impact of the antibiotic treatment on the immune response to the antigen-was likely mediated by the alterations of the gut microbiota, through impairment in the mechanisms of antigen handling and presentation. This work reinforces the body of data supporting a key role of the intestinal microbiota modulating the risk of allergy development and leads us to propose that the introduction of new food antigens should be avoided during antibiotic treatment in infants. Résumé: L'augmentation du niveau d'hygiène caractérisant les sociétés occidentales semble être fortement corrélée avec l'augmentation des cas d'allergie dans ces pays. De cette observation est née l'hypothèse qu'une diminution des stimuli microbiens pendant l'enfance modifie le développement du système immunitaire augmentant ainsi le risque d'allergie. En ce sens, un nombre croissant de données indiquent que les interactions existant entre l'intestin et les bactéries résidantes sont cruciales pour l'équilibre du système. En effet, la présence de bactéries dans l'intestin affecte l'intégrité de sa fonction de barrière et stimule le développement du système immunitaire intestinal. Ces deux paramètres étant essentiels à la mise en place d'une réponse contrôlée vis à vis d'un antigène reçu oralement, toute modification du processus naturel de colonisation compromettant l'équilibre intestinal pourrait augmenter le risque d'allergie. Les traitements aux antibiotiques, fréquemment prescrits en pédiatrie, modifient de façon conséquente le processus de colonisation bactérienne. Cependant peu de données existent concernant l'impact d'une altération du processus de colonisation sur la maturation de la barrière intestinale et de la réponse immunitaire dirigée contre un antigène. L'objectif de ce travail était de déterminer l'impact d'un antibiotique commercial et employé en pédiatrie sur l'état de la barrière intestinale au moment critique du sevrage et d'évaluer les conséquences physiologiques d'un tel traitement sur la réponse immune à un antigène alimentaire. Nous avons mis en place un modèle de rats allaités, traités à l'antibiotique, le plus proche possible des pratiques pédiatriques, en terme de nature, dose et voie d'administration de l'antibiotique. Nous avons constaté que l'établissement de la tolérance orale à un nouvel antigène (l'ovalbumine) est altéré quand celui-ci est donné pour la première fois au cours du traitement antibiotique. Ces résultats coïncident avec une diminution de la perméabilité intestinale aux macromolécules, ainsi qu'avec une diminution de l'expression des gènes codant pour les molécules du complexe majeur d'histocomptatibilité de classe II, suggérant une modification de l'apprêtement et de la présentation de l'antigène au niveau intestinal chez les rats traités à l'antibiotique. De plus, un faible taux d'IgA et une diminution de l'expression des gènes codant pour des protéines antimicrobiennes, observés après l'administration d'antibiotique, laissent à penser que la protection contre un pathogène est diminuée lors d'un traitement antibiotique. En conclusion, nous avons observé qu'un traitement antibiotique à large spectre d'activité, couramment utilisé en pédiatrie, réduit la capacité d'induction de la tolérance orale chez le rat allaité. L'impact du traitement antibiotique sur la réponse immune semble induite par l'altération de la flore intestinale via son effet sur les mécanismes d'apprêtement et de présentation de l'antigène. Ce travail renforce l'ensemble des données existantes qui accorde à la flore intestinale un rôle clef dans la modulation du risque de développement d'allergie et nous amène à recommander d'éviter l'introduction d'un nouvel aliment lorsqu'un enfant est traité aux antibiotiques.

Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La mort est au centre de toutes les sociétés. Quelles que soient les procédures funéraires suivies - de la crémation du cadavre à l'embaumement le plus sophistiqué -, la mort fait l'objet de traitements obéissant aux conceptions que les sociétés se font de la mort elle-même, du devenir du défunt et des relations que les vivants entretiennent avec ce dernier. Si la mort donne lieu à des rites funéraires fort variés, ceux-ci partagent cependant des fonctions communes: prendre acte d'une rupture tout en la dissolvant dans le temps long d'une transition, créer un espace dans le temps ordinaire continu, recomposer du lien social là où la mort a imposé un vide.... Etudier les rites funéraires, c'est donc s'intéresser aux réponses culturelles développées par les êtres humains face à la mort biologique, s'interroger sur les pratiques mises en place pour accompagner les défunts, mais aussi aborder la question du deuil et de la séparation des vivants d'avec leurs morts. -- Trois dimensions Pour transmettre ces connaissances, une nouvelle forme de communication multimédia a été mise au point au sein d'une équipe interdisciplinaire sciences humaines-informatique : «les eTalks», un nouveau nom que nous nous permettons d'utiliser désormais en français. Cette nouvelle forme est décrite plus bas. Quant à leur contenu, les eTalks proposés sont issus de deux cycles de formation continue organisés par l'Université de Lausanne et la Haute école pédagogique du canton de Vaud en 2010 et 2012. Les conférences, données par des professeurs d'université, de Hautes Ecoles ou par des praticiens, s'adressaient à un public provenant d'horizons professionnels très variés (enseignants, agents funéraires, membres du corps médical, représentants des communautés religieuses, etc.). Il est donc à relever que les genres littéraires de ces e-talks varient, depuis la communication académique standard, jusqu'aux témoignages de professionnels engagés sur le terrain. -- Pour des raisons de clarté, nous avons regroupé les eTalks en trois sous-thèmes: -- 1. A la découverte des cultures funéraires Génératrice de culture depuis la préhistoire, la mort suscite des attitudes et des pratiques diversifiées selon les époque et les sociétés. Les eTalks regroupés ici visent à présenter et à expliquer des pratiques funéraires développées dans trois traditions religieuses distinctes - l'Egypte ancienne, le monde réformé (du XVIe - XIXe siècle) et l'islam - et invitent ainsi à comparer des usages provenant d'horizons culturels très différents. -- 2. Rites funéraires sur le terrain Dans nos sociétés très institutionnalisées, la mort et les demandes de rites funéraires qui en découlent ont aussi un impact au sein des établissements professionnels que l'on fréquente à différentes étapes de nos vies. Les eTalks regroupés ici s'intéressent aux rites funéraires et à la gestion du deuil dans des institutions telles que l'école, les établissements médico-sociaux, le monde du travail et les pompes funèbres. Ils joignent des recherches menées sur le terrain et rendent compte des expériences vécues par les acteurs institutionnels confrontés à la mort. -- 3. Rites funéraires contemporains Certains déplorent la déperdition des rites funéraires dans nos sociétés contemporaines. Mais en est-il vraiment ainsi ? N'assiste-t-on pas aujourd'hui à une revitalisation des formes rituelles que ce soit à travers la reélaboration de pratiques anciennes ou la création de nouveaux rites ? Les eTalks regroupés ici démontrent en tous les cas une grande vitalité rituelle que ce soit par le biais de la réinterprétation et de l'adaptation des traditions religieuses ou de la créativité dont témoignent des non-croyants. Ils indiquent qu'après un temps marqué par l'éloignement de la mort, nous sommes peut-être engagés dans des formes multiples de réappropriation de cette dernière.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Since 1895, when X-rays were discovered, ionizing radiation became part of our life. Its use in medicine has brought significant health benefits to the population globally. The benefit of any diagnostic procedure is to reduce the uncertainty about the patient's health. However, there are potential detrimental effects of radiation exposure. Therefore, radiation protection authorities have become strict regarding the control of radiation risks.¦There are various situations where the radiation risk needs to be evaluated. International authority bodies point to the increasing number of radiologic procedures and recommend population surveys. These surveys provide valuable data to public health authorities which helps them to prioritize and focus on patient groups in the population that are most highly exposed. On the other hand, physicians need to be aware of radiation risks from diagnostic procedures in order to justify and optimize the procedure and inform the patient.¦The aim of this work was to examine the different aspects of radiation protection and investigate a new method to estimate patient radiation risks.¦The first part of this work concerned radiation risk assessment from the regulatory authority point of view. To do so, a population dose survey was performed to evaluate the annual population exposure. This survey determined the contribution of different imaging modalities to the total collective dose as well as the annual effective dose per caput. It was revealed that although interventional procedures are not so frequent, they significantly contribute to the collective dose. Among the main results of this work, it was shown that interventional cardiological procedures are dose-intensive and therefore more attention should be paid to optimize the exposure.¦The second part of the project was related to the patient and physician oriented risk assessment. In this part, interventional cardiology procedures were studied by means of Monte Carlo simulations. The organ radiation doses as well as effective doses were estimated. Cancer incidence risks for different organs were calculated for different sex and age-at-exposure using the lifetime attributable risks provided by the Biological Effects of Ionizing Radiations Report VII. Advantages and disadvantages of the latter results were examined as an alternative method to estimate radiation risks. The results show that this method is the most accurate, currently available, to estimate radiation risks. The conclusions of this work may guide future studies in the field of radiation protection in medicine.¦-¦Depuis la découverte des rayons X en 1895, ce type de rayonnement a joué un rôle important dans de nombreux domaines. Son utilisation en médecine a bénéficié à la population mondiale puisque l'avantage d'un examen diagnostique est de réduire les incertitudes sur l'état de santé du patient. Cependant, leur utilisation peut conduire à l'apparition de cancers radio-induits. Par conséquent, les autorités sanitaires sont strictes quant au contrôle du risque radiologique.¦Le risque lié aux radiations doit être estimé dans différentes situations pratiques, dont l'utilisation médicale des rayons X. Les autorités internationales de radioprotection indiquent que le nombre d'examens et de procédures radiologiques augmente et elles recommandent des enquêtes visant à déterminer les doses de radiation délivrées à la population. Ces enquêtes assurent que les groupes de patients les plus à risque soient prioritaires. D'un autre côté, les médecins ont également besoin de connaître le risque lié aux radiations afin de justifier et optimiser les procédures et informer les patients.¦Le présent travail a pour objectif d'examiner les différents aspects de la radioprotection et de proposer une manière efficace pour estimer le risque radiologique au patient.¦Premièrement, le risque a été évalué du point de vue des autorités sanitaires. Une enquête nationale a été réalisée pour déterminer la contribution des différentes modalités radiologiques et des divers types d'examens à la dose efficace collective due à l'application médicale des rayons X. Bien que les procédures interventionnelles soient rares, elles contribuent de façon significative à la dose délivrée à la population. Parmi les principaux résultats de ce travail, il a été montré que les procédures de cardiologie interventionnelle délivrent des doses élevées et devraient donc être optimisées en priorité.¦La seconde approche concerne l'évaluation du risque du point de vue du patient et du médecin. Dans cette partie, des procédures interventionnelles cardiaques ont été étudiées au moyen de simulations Monte Carlo. La dose délivrée aux organes ainsi que la dose efficace ont été estimées. Les risques de développer des cancers dans plusieurs organes ont été calculés en fonction du sexe et de l'âge en utilisant la méthode établie dans Biological Effects of Ionizing Radiations Report VII. Les avantages et inconvénients de cette nouvelle technique ont été examinés et comparés à ceux de la dose efficace. Les résultats ont montré que cette méthode est la plus précise actuellement disponible pour estimer le risque lié aux radiations. Les conclusions de ce travail pourront guider de futures études dans le domaine de la radioprotection en médicine.

Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction : S'il est des questions qui plongent les juristes et les médecins dans l'embarras, celle de l'information à délivrer au patient, composante de la théorie du consentement éclairé, occupe une place de choix. Depuis plusieurs années, les exigences relatives aux droits des patients, notamment le droit à l'information médicale, ont évolué parallèlement aux progrès vertigineux de la médecine et de la science. Il y a trente ans, ce principe était pratiquement inconnu de notre ordre juridique. En 1979, le Tribunal fédéral se pose formellement la question des limites du devoir d'information incombant au médecin. Soulignons qu'en 1940 déjà, les juges fédéraux avaient abordé l'existence d'un devoir d'information du thérapeute tout en niant son existence dans le cas d'espèce au motif que le patient n'aurait pas renoncé à l'intervention s'il avait été correctement informé du risque normal et minime que celle-ci comportait. Depuis lors, ce principe a été consacré par l'ensemble des législations sanitaires cantonales. La médecine humaine étant de la compétence des cantons, il a fallu attendre 1992 pour voir la création d'une norme constitutionnelle attribuant la première compétence à la Confédération dans le domaine du génie génétique et de la procréation médicalement assistée. La Confédération a ensuite reçu des compétences législatives en matière de médecine de transplantation. Enfin, un futur article 118a Cst permettant à la Confédération de légiférer dans le domaine de la recherche sur l'homme sera prochainement soumis aux votes du peuple et des cantons. Ces nouvelles lois fédérales concrétisent les principes généraux en matière d'information dégagés par le Tribunal fédéral au fil de sa jurisprudence et lui octroient une place importante s'agissant de domaines pointus où l'individu n'est que profane. Ces trente dernières années ont été marquées par un accroissement important des droits des patients corollairement lié à un affaiblissement du pouvoir des médecins. A ce jour, le point d'équilibre ne semble pas être atteint, la tendance étant de pratiquer de la médecine dite défensive, promouvant le consentement éclairé au rôle de protection juridique du thérapeute, oubliant sa fonction première de garantie du libre choix du patient. GUILLOD, dans une thèse faisant autorité en Suisse, ayant pour thème : le consentement éclairé du patient, Autodétermination ou paternalisme ? s'était déjà penché en 1986 sur la problématique de l'information. A cette période, la jurisprudence en la matière était peu importante, le droit fédéral était pratiquement inexistant et le droit cantonal commençait à émerger. Nous avons dès lors décidé de consacrer notre travail de doctorat au devoir d'information du médecin, eu égard au nombre considérable de décisions rendues en la matière et à l'évolution de la législation tant fédérale que cantonale. Pratiquement, cette étude se subdivise en trois parties. La première permettra d'analyser les différents fondements juridiques du devoir d'information. Nous nous proposons de commencer par un aperçu de la théorie des droits de la personnalité avant de l'appliquer au devoir d'information. Puis, nous examinerons le devoir d'information dans les autres domaines du droit, tels que le droit pénal, le droit des contrats, le droit public ou le droit international. De plus, vu l'importance des normes déontologiques dans ce domaine, celles-ci feront l'objet d'une analyse spécifique. Dans une deuxième partie, il s'agira de dessiner les contours de l'information médicale. Nous commencerons par déterminer les parties à cette information avant de déterminer l'étendue et le contenu du devoir incombant au médecin. Puis, nous aborderons successivement la question des modalités de l'information et la problématique du fardeau de la preuve. Ensuite, les limitations et les cas particuliers seront examinés. La suite du travail portera sur l'exigence d'un consentement libre et éclairé en sa qualité de corollaire à l'information. Enfin, nous terminerons par un examen du droit d'accès au dossier médical. La troisième partie consacre spécifiquement le devoir d'information dans les nouvelles lois fédérales médicales (LPMA, LRCS, LAGH, LTO, LSter, LPTh, AP LRH). Dans ce dernier volet, nous nous proposons de commencer par un examen des compétences de la Confédération en médecine humaine, puis nous analyserons ces différentes lois, essentiellement sous trois aspects : leur champ d'application, l'information et le consentement du patient.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis focuses on theoretical asset pricing models and their empirical applications. I aim to investigate the following noteworthy problems: i) if the relationship between asset prices and investors' propensities to gamble and to fear disaster is time varying, ii) if the conflicting evidence for the firm and market level skewness can be explained by downside risk, Hi) if costly learning drives liquidity risk. Moreover, empirical tests support the above assumptions and provide novel findings in asset pricing, investment decisions, and firms' funding liquidity. The first chapter considers a partial equilibrium model where investors have heterogeneous propensities to gamble and fear disaster. Skewness preference represents the desire to gamble, while kurtosis aversion represents fear of extreme returns. Using US data from 1988 to 2012, my model demonstrates that in bad times, risk aversion is higher, more people fear disaster, and fewer people gamble, in contrast to good times. This leads to a new empirical finding: gambling preference has a greater impact on asset prices during market downturns than during booms. The second chapter consists of two essays. The first essay introduces a foramula based on conditional CAPM for decomposing the market skewness. We find that the major market upward and downward movements can be well preadicted by the asymmetric comovement of betas, which is characterized by an indicator called "Systematic Downside Risk" (SDR). We find that SDR can efafectively forecast future stock market movements and we obtain out-of-sample R-squares (compared with a strategy using historical mean) of more than 2.27% with monthly data. The second essay reconciles a well-known empirical fact: aggregating positively skewed firm returns leads to negatively skewed market return. We reconcile this fact through firms' greater response to negative maraket news than positive market news. We also propose several market return predictors, such as downside idiosyncratic skewness. The third chapter studies the funding liquidity risk based on a general equialibrium model which features two agents: one entrepreneur and one external investor. Only the investor needs to acquire information to estimate the unobservable fundamentals driving the economic outputs. The novelty is that information acquisition is more costly in bad times than in good times, i.e. counter-cyclical information cost, as supported by previous empirical evidence. Later we show that liquidity risks are principally driven by costly learning. Résumé Cette thèse présente des modèles théoriques dévaluation des actifs et leurs applications empiriques. Mon objectif est d'étudier les problèmes suivants: la relation entre l'évaluation des actifs et les tendances des investisseurs à parier et à crainadre le désastre varie selon le temps ; les indications contraires pour l'entreprise et l'asymétrie des niveaux de marché peuvent être expliquées par les risques de perte en cas de baisse; l'apprentissage coûteux augmente le risque de liquidité. En outre, des tests empiriques confirment les suppositions ci-dessus et fournissent de nouvelles découvertes en ce qui concerne l'évaluation des actifs, les décisions relatives aux investissements et la liquidité de financement des entreprises. Le premier chapitre examine un modèle d'équilibre où les investisseurs ont des tendances hétérogènes à parier et à craindre le désastre. La préférence asymétrique représente le désir de parier, alors que le kurtosis d'aversion représente la crainte du désastre. En utilisant les données des Etats-Unis de 1988 à 2012, mon modèle démontre que dans les mauvaises périodes, l'aversion du risque est plus grande, plus de gens craignent le désastre et moins de gens parient, conatrairement aux bonnes périodes. Ceci mène à une nouvelle découverte empirique: la préférence relative au pari a un plus grand impact sur les évaluations des actifs durant les ralentissements de marché que durant les booms économiques. Exploitant uniquement cette relation générera un revenu excédentaire annuel de 7,74% qui n'est pas expliqué par les modèles factoriels populaires. Le second chapitre comprend deux essais. Le premier essai introduit une foramule base sur le CAPM conditionnel pour décomposer l'asymétrie du marché. Nous avons découvert que les mouvements de hausses et de baisses majeures du marché peuvent être prédits par les mouvements communs des bêtas. Un inadicateur appelé Systematic Downside Risk, SDR (risque de ralentissement systématique) est créé pour caractériser cette asymétrie dans les mouvements communs des bêtas. Nous avons découvert que le risque de ralentissement systématique peut prévoir les prochains mouvements des marchés boursiers de manière efficace, et nous obtenons des carrés R hors échantillon (comparés avec une stratégie utilisant des moyens historiques) de plus de 2,272% avec des données mensuelles. Un investisseur qui évalue le marché en utilisant le risque de ralentissement systématique aurait obtenu une forte hausse du ratio de 0,206. Le second essai fait cadrer un fait empirique bien connu dans l'asymétrie des niveaux de march et d'entreprise, le total des revenus des entreprises positiveament asymétriques conduit à un revenu de marché négativement asymétrique. Nous décomposons l'asymétrie des revenus du marché au niveau de l'entreprise et faisons cadrer ce fait par une plus grande réaction des entreprises aux nouvelles négatives du marché qu'aux nouvelles positives du marché. Cette décomposition révélé plusieurs variables de revenus de marché efficaces tels que l'asymétrie caractéristique pondérée par la volatilité ainsi que l'asymétrie caractéristique de ralentissement. Le troisième chapitre fournit une nouvelle base théorique pour les problèmes de liquidité qui varient selon le temps au sein d'un environnement de marché incomplet. Nous proposons un modèle d'équilibre général avec deux agents: un entrepreneur et un investisseur externe. Seul l'investisseur a besoin de connaitre le véritable état de l'entreprise, par conséquent, les informations de paiement coutent de l'argent. La nouveauté est que l'acquisition de l'information coute plus cher durant les mauvaises périodes que durant les bonnes périodes, comme cela a été confirmé par de précédentes expériences. Lorsque la récession comamence, l'apprentissage coûteux fait augmenter les primes de liquidité causant un problème d'évaporation de liquidité, comme cela a été aussi confirmé par de précédentes expériences.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUME L'anévrysme de l'aorte abdominale est une dilatation permanente et localisée de l'aorte abdominale d'un diamètre transverse supérieur à 30 mm. Il s'agit d'une maladie dégénérative et inflammatoire fréquente de l'aorte, présente chez environ 5% des hommes de 65 à 74 ans de la population générale, et chez 10% des hommes hospitalisés pour une revascularisation coronarienne chirurgicale. En effet, bien que la pathogenèse de l'anévrysme de l'aorte abdominale diffère de celle du processus d'athérosclérose, les deux maladies partagent de nombreux facteurs de risque, en particulier l'âge, l'hypertension artérielle et le tabagisme. L'anévrysme de l'aorte abdominale est une maladie silencieuse, et dans 20% des cas, sa première manifestation clinique est la rupture aiguë avec choc hémorragique. La mortalité totale d'une telle complication dépasse 90% et sa mortalité strictement opératoire est d'environ 50%. Ces chiffres contrastent étonnamment avec une mortalité inférieure à 5% en cas de cure chirurgicale élective de l'anévrysme, justifiant un programme de dépistage systématique de cette maladie par ultrasonographie abdominale. Plusieurs études ont actuellement prouvé l'efficience de tels programmes, tant du point de vue de leur impact sur la mortalité que de leur rapport coût-efficacité. La question d'un dépistage systématique de la population générale ou de celui de souspopulations sélectionnées en fonction de leurs facteurs de risque reste toutefois débattue. La prise en charge de l'anévrysme de l'aorte abdominale est en principe conservatrice pour les anévrysmes de faibles diamètres, la mortalité d'une telle approche étant comparable à celle d'une attitude d'emblée chirurgicale. L'indication opératoire est par contre posée pour les anévrysmes d'un diamètre supérieur à 55 mm en raison du risque inacceptable de rupture, la valeur du diamètre transverse de l'aorte représentant le facteur prédictif de rupture le plus fréquemment utilisé en pratique quotidienne. La cure chirurgicale ouverte est le traitement de référence de l'anévrysme de l'aorte abdominale, mais la cure minimale invasive par endoprothèse, disponible depuis le début des années 1990, représente une alternative attrayante. Le choix de l'approche thérapeutique dépend fortement des caractéristiques anatomiques de l'aorte, ainsi que des comorbidités et de la préférence du patient.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction :¦Alors que le risque de métastases ganglionnaires est absent pour les adénomes coliques avec dysplasie de haut degré ou adénocarcinome intramuqueux limités à la muqueuse, ce risque existe à priori pour les adénomes avec transformation adénocarcinomateuse se définissant par l'envahissement de la sous-muqueuse (pT1). Néanmoins l'importance de leur potentiel à développer des métastases reste difficile à estimer posant un réel problème pour leur prise en charge. A ce jour, près de la moitié des adénocarcinomes débutants diagnostiqués sur des polypectomies est traitée par une résection colique chirurgicale complémentaire avec un curage ganglionnaire.¦Le but de cette étude est de quantifier le risque de développement de métastases ganglionnaires pour les adénocarcinomes pT1 et de définir les critères histologiques et macroscopiques utiles pour l'évaluation de ce risque.¦Méthode :¦Il s'agit d'une revue rétrospective de 32 cas d'adénocarcinomes colo-rectaux débutants chez 31 patients et recensés entre 2000 et 2010 à l'institut de pathologie du CHUV. Pour chaque tumeur nous avons procédé à une analyse macroscopique et histologique détaillée et nous l'avons corrélée à la rechercher de métastases ou de récidives lors du suivi. Enfin nous avons comparés nos résultats à une analyse de la littérature.¦Résultats et conclusion :¦Un seul adénocarcinome parmi les 32 adénocarcinomes recensés (3.13%) a présenté une métastase ganglionnaire avec 1 ganglion métastatique sur 21 ganglions prélevés. Aucune récidive n'a été mise en évidence lors du suivi des 32 adénocarcinomes. Ces résultats sont beaucoup plus optimistes que ceux de la littérature permettant de penser que la majorité de ces tumeurs peuvent être traités par polypectomie seule avec suivi endoscopique.¦Selon la littérature, les paramètres les plus significatifs pour la prédiction du risque métastatique sont un grade 3, une clearance inférieure à 2mm, un budding marqué (petits bourgeonnements de cellules tumorales éloignées de la masse tumorale principale), l'invasion du 3ème tiers de la sous-muqueuse (sm3) et l'invasion vasculaire. Notre étude confirme l'importance de la mise en évidence d'invasion lymphatique et montre un intérêt probable de la réaction de budding et de la taille du front d'invasion tumoral dans la prédiction du risque de développement de métastases ganglionnaires

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Acute exercise increases energy expenditure (EE) during exercise and post-exercise recovery [excess post-exercise oxygen consumption (EPOC)] and therefore may be recommended as part of the multidisciplinary management of obesity. Moreover, chronic exercise (training) effectively promotes an increase in insulin sensitivity, which seems to be associated with increased fat oxidation rates (FORs). The main purpose of this thesis is to investigate 1) FORs and extra-muscular factors (hormones and plasma metabolites) that regulate fat metabolism during acute and chronic exercise; and 2) EPOC during acute post-exercise recovery in obese and severely obese men (class II and III). In the first study, we showed that obese and severely obese men present a lower exercise intensity (Fatmax) eliciting maximal fat oxidation and a lower reliance on fat oxidation at high, but not at low and moderate, exercise intensities compared to lean men. This was most likely related to an impaired muscular capacity to oxidize non-esterified fatty acids (NEFA) rather than decreased plasma NEFA availability or a change in the hormonal milieu during exercise. In the second study, we developed an accurate maximal incremental test to correctly and simultaneously evaluate aerobic fitness and fat oxidation kinetics during exercise in this population. This test may be used for the prescription of an appropriate exercise training intensity. In the third study, we demonstrated that only 2 wk of exercise training [continuous training at Fatmax and adapted high-intensity interval training (HIIT)], matched with respect to mechanical work, may be effective to improve aerobic fitness, FORs during exercise and insulin sensitivity, which suggest that FORs might be rapidly improved and that adapted HIIT is feasible in this population. The increased FORs concomitant with the lack of changes in lipolysis during exercise suggest an improvement in the mismatching between NEFA availability and oxidation, highlighting the importance of muscular (oxidative capacity) rather than extra-muscular (hormones and plasma metabolites) factors in the regulation of fat metabolism after a training program. In the fourth study, we observed a positive correlation between EE during exercise and EPOC, suggesting that a chronic increase in the volume or intensity of exercise may increase EE during exercise and during recovery. This may have an impact in weight management in obesity. In conclusion, these findings might have practical implications for exercise training prescriptions in order to improve the therapeutic approaches in obesity and severe obesity. -- L'exercice aigu augmente la dépense énergétique (DE) pendant l'exercice et la récupération post-exercice [excès de consommation d'oxygène post-exercise (EPOC)] et peut être utilisé dans la gestion multidisciplinaire de l'obésité. Quant à l'exercice chronique (entraînement), il est efficace pour augmenter la sensibilité à l'insuline, ce qui semble être associé à une amélioration du débit d'oxydation lipidique (DOL). Le but de cette thèse est d'étudier 1) le DOL et les facteurs extra-musculaires (hormones et métabolites plasmatiques) qui régulent le métabolisme lipidique pendant l'exercice aigu et chronique et 2) l'EPOC lors de la récupération aiguë post-exercice chez des hommes obèses et sévèrement obèses (classe II et III). Dans la première étude nous avons montré que les hommes obèses et sévèrement obèses présentent une plus basse intensité d'exercice (Fatmax) correspondant au débit d'oxydation lipidique maximale et un plus bas DOL à hautes, mais pas à faibles et modérées, intensités d'exercice comparé aux sujets normo-poids, ce qui est probablement lié à une incapacité musculaire à oxyder les acides gras non-estérifiés (AGNE) plutôt qu'à une diminution de leur disponibilité ou à un changement du milieu hormonal pendant l'exercice. Dans la deuxième étude nous avons développé un test maximal incrémental pour évaluer simultanément l'aptitude physique aérobie et la cinétique d'oxydation des lipides pendant l'exercice chez cette population. Dans la troisième étude nous avons montré que seulement deux semaines d'entraînement (continu à Fatmax et intermittent à haute intensité), appariés par la charge de travail, sont efficaces pour améliorer l'aptitude physique aérobie, le DOL pendant l'exercice et la sensibilité à l'insuline, ce qui suggère que le DOL peut être rapidement amélioré chez cette population. Ceci, en absence de changements de la lipolyse pendant l'exercice, suggère une amélioration de la balance entre la disponibilité et l'oxydation des AGNE, ce qui souligne l'importance des facteurs musculaires (capacité oxydative) plutôt que extra-musculaires (hormones et métabolites plasmatiques) dans la régulation du métabolisme lipidique après un entraînement. Dans la quatrième étude nous avons observé une corrélation positive entre la DE pendant l'exercice et l'EPOC, ce qui suggère qu'une augmentation chronique du volume ou de l'intensité de l'exercice pourrait augmenter la DE lors de l'exercice et lors de la récupération post-exercice. Ceci pourrait avoir un impact sur la gestion du poids chez cette population. En conclusion, ces résultats pourraient avoir des implications pratiques lors de la prescription des entraînements dans le but d'améliorer les approches thérapeutiques de l'obésité et de l'obésité sévère.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The ADVANCE study is a morbidity-mortality double-blind trial carried out in normotensive or hypertensive patients with type 2 diabetes. The patients were randomly assigned to receive containing a fixed-combination tablet of an ACE inhibitor (perindopril) with a diuretic (indapamide) (4 mg/l,250 mg, n=5569), or placebo (n=5571), administered if needed on top of other blood pressure lowering agents. Significant reductions in the relative risk of death from cardiovascular disease (18%), total coronary events (14%), and total renal events (21%) were observed. Thus, in patients with type 2 diabetes, a drug regimen based on a fixed-dose combination of perindopril/ indapamide affords major protection against both the macro and microvascular complications. L'étude ADVANCE est un essai clinique de morbidité-mortalité réalisé en double insu chez des malades avec diabète de type 2 normo ou hypertendus. Les malades ont été alloués au hasard pour un suivi moyen de 4,3 ans à un traitement comportant soit une association fixe de l'inhibiteur de l'ECA périndopril et du diurétique indapamide (4 mg/1,250 mg, n = 5569), soit un placebo (n = 5571), ceci en plus si nécessaire d'autres médicaments antihypertenseurs. Des réductions significatives du risque relatif ont été observées sous périndopril/indapamide, en particulier de la mortalité cardiovasculaire (18%), de l'ensemble des événements coronaires (14%) et rénaux (21%). Ainsi chez le malade avec diabète de type 2, un traitement basé sur une association de périndopril et d'indapamide à doses fixes a un effet protecteur majeur contre les complications macro et microvasculaires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le traitement recommandé du diabète de type 1 repose sur le contrôle glycémique strict, qui permet une diminution du risque de complications microvasculaires comparativement à un contrôle glycémique moins strict (conventionnel). L'effet du contrôle glycémique strict sur les complications macrovasculaires est moins clair. La question des objectifs glycémiques est ainsi sujette à débat. Alors qu'il n'y a pas eu de nouvelles études d'intervention concernant le diabète de type 1 chez les adultes depuis les années 1990, des études récentes concernant le diabète de type 2 ont montré l'absence de bénéfices sur le risque de complications, voire une augmentation de la mortalité en cas de contrôle glycémique très strict, comparativement à un contrôle moins strict. L'objectif de cette revue était de déterminer les avantages et inconvénients du contrôle glycémique strict dans le diabète de type 1.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

4. Résumés 4.1. Consommation de psychotropes et délinquance dans une perspective comparative internationale 4.1.1. Titre original de la publication et indications bibliographiques : Ribeaud, Denis (2003). << Drug use and crime >>, In: Junger-Tas, J., I. Marshall & D. Ribeaud : Delinquency in an International Perspective : The International Self-Reported Delinquency Study (ISRD), 65-90. Monsey (NY) USA & The Hague, NL: Criminal Justice Press & Kugler Publications. 4.1.2. Résumé Il s'agit ici d'un chapitre dans une monographie portant sur des analyses comparatives menées avec les données de l'International Self-Reported Delinquency Study (ISRD). Le but primaire de cette étude était d'étudier différences et similarités entre différents pays occidentaux d'une part quant à la prévalence et à l'incidence de différents types de délinquance juvénile et d'autre part quant aux facteurs de risques et aux causes de cette délinquance. L'étude a été menée - selon le pays - soit sur la base d'interviews personnelles standardisées soit sur la base de questionnaires écrits et complétés en classe. En tout, l'échantillon analysé comprend 10'843 jeunes âgés entre 14 et 21 ans et provenant des pays Suivants: Belgique, Allemagne, Angleterre et Pays de Galles, Finlande, Italie, Pays-Bas, Irlande du Nord, Portugal, Espagne, Etats-Unis, Suisse. De plus amples informations sur la méthodologie de cette étude se trouvent au deuxième chapitre de l'ouvrage. Le chapitre portant sur la consommation de psychotropes ainsi que sur le lien entre consommation de psychotropes et délinquance traite les questions de recherche esquissées au chapitre précédent. Elles sont brièvement récapitulées ci-dessous ensemble avec les méthodes choisies pour les analyses correspondantes ainsi que les résultats qui en ont découlé. La première question - d'ordre méthodologique - porte sur l'appréciation de la validité externe des taux de prévalence trouvés dans l'échantillon ISRD. La validité externe a été établie en corrélant les taux de prévalence ISRD avec ceux trouvés dans cinq autres études présentant des taux méthodologiquement comparables. Les résultats suggèrent que la validité externe peut être caractérisée de satisfaisante pour autant que les comparaisons soient menées avec des séries de données de qualité - soit d'un niveau de standardisation - comparable à celle des données ISRD. La validité des données ayant été établie, nous avons ensuite comparé la prévalence de la consommation de cannabis et d'un groupe de substances dites « dures » (héroïne, cocaïne, LSD, amphétamines et autres produits stupéfiants de synthèse) entre les différents échantillons étudiés. Les résultats montrent tout d'abord des différences fort prononcées entre les différents pays et villes étudiés. Ensuite, on constate une corrélation prononcée entre les taux de consommation de cannabis et ceux d'autres stupéfiants. De manière générale, les pays anglophones présentent les taux de consommation les plus élevés. Les taux de consommation de « drogues dures » plus élevé dans ces pays s'expliquent pour une bonne partie du fait de la disponibilité dans ces pays de produits stupéfiants de synthèse encore largement inconnus à l'époque sur le continent. Nous avons ensuite étudié les différences de sexe par rapport à la consommation de psychotropes. Dans le groupe des 14 à 18 ans qui est typiquement celui avec les taux de délinquance les plus élevés, ces différences sont plus atténuées que pour d'autres types de délinquance juvénile. En comparant les différents échantillons l'on décèle à nouveau de grandes variations entre les pays étudiés : Contrairement aux autres échantillons, l'Angleterre, la Finlande, les Etats-Unis et l'Allemagne ne présentent quasiment pas de différences entre les sexes. Dans le groupe des 19 à 21 ans les différences entre les sexes sont nettement plus marquées. Nous avons tenté d'expliquer cette interaction entre âge et sexe avec une socialisation différentielle des sexes à l'usage de stupéfiants : Ainsi les filles seraient plutôt initiées à la consommation par des partenaires plus âgées, alors que les garçons apprendraient l'usage de stupéfiants plutôt par des pairs du même âge. L'analyse de l'âge d'initiation à la consommation des différentes substances présente des similarités frappantes entre les échantillons étudiés Plus une substances est proscrites et plus sa consommation est marginalisée, plus élevé est l'âge d'initiation. C'est ainsi que la consommation d'alcool débute en moyenne à 13,5 ans, celle de cannabis 15,0 et celle d'autres stupéfiants à 15,8 ans. Les âges d'initiation aux stupéfiants sont le plus bas aux Etats-Unis, suivi de l'Angleterre et des pays ibériques. De manière générale, nous avons pu déceler une forte corrélation négative entre l'âge d'initiation à la consommation d'une substance illicite et le taux de prévalence : Plus ce taux de consommation est élevé dans un pays donné, plus l'âge d'initiation est bas. Cela suggère que l'âge d'initiation est lié à la disponibilité d'une substance. Concernant le « chevauchement » entre la consommation de différentes substances, nous avons à nouveau constaté de grande similarités entre les différents échantillons : Presque tous les consommateurs de cannabis sont aussi consommateurs d'alcool, alors que l'inverse n'est pas le cas. Similairement, presque tous les consommateurs de « drogues dures » ont déjà fait usage de cannabis, [ors qu'inversement la majorité des consommateurs de cannabis n'a mais utilisé d'autres stupéfiants. En tenant compte que biographiquement la consommation d'alcool et de cannabis précède .11e d'autres stupéfiants, ces observations nous mènent à conclure que la consommation d'alcool et de cannabis est une condition quasiment nécessaire, mais non suffisante, à l'initiation à d'autres stupéfiants. Fous discuterons plus bas les différences du niveau de chevauchement âtre les échantillons. Nos analyses sur le lien entre consommation de psychotropes et délinquance montrent qu'il existe, dans tous les échantillons, une corrélation prononcée entre consommation de stupéfiants d'une part, et e délinquance violente et contre la propriété d'autre part. Afin 'élucider un éventuel ordre causal entre les délits contre la propriété et la consommation de stupéfiants, nous avons ensuite étudié la séquence e leurs âges d'initiation respectifs. Typiquement, la commission de délits contre la propriété précède la consommation de substances licites. Par contre, si on limite l'analyse à de sérieux délits contre la propriété, on trouvera que, typiquement, l'initiation à la consommation de stupéfiants précédera ce type de délinquance. Ceci pourrait donc indiquer que la commission de délits sérieux contre la propriété est une cause directe du besoin d'argent généré par une consommation de stupéfiants habituelle (délinquance « économico compulsive ») ou du moins indiquer une plus forte attache dans un milieu délinquant du fait de la consommation de substances illicites (stade du « renforcement mutuel »). Un des buts des analyses comparatives présentées dans ce chapitre était aussi de déceler un éventuel impact des différentes politiques en matière de stupéfiants sur les taux de consommation. De manière générale, aucun lien n'a pu être établi entre le niveau de répression de la consommation et les taux de consommation. En effet, les taux de consommation les plus élevés ainsi que les âges d'initiation les plus bas ont été décelés pour les Etats-Unis, soit un des pays occidentaux poursuivant probablement une des plus strictes politiques en matière de stupéfiants autant licites qu'illicites, en particulier en ce qui concerne les mineurs. D'autre part, la politique en matière de cannabis relativement libérale que poursuivent les Pays-Bas génère des taux de consommation correspondant à la moyenne occidentale. Cependant, les différents résultats trouvés pour les Pays-Bas indiquent que la politique de séparation du marché du cannabis de ceux d'autres stupéfiants poursuivie dans ce pays semble avoir atteint ses buts à différents niveaux. Alors que le taux de consommation de cannabis n'est pas plus élevé que dans la moyenne européenne, le taux de consommation d'autres stupéfiants se trouve être parmi les plus bas décelés dans les échantillons analysés, de même que le taux de « chevauchement » entre la consommation de cannabis et celle d'autres stupéfiants. Par ailleurs, il semble que cette politique de séparation a aussi un effet bénéfique sur l'âge d'initiation à la consommation d'autres stupéfiants puisque aux Pays-Bas cet âge se trouve être parmi les plus élevés. Ces observations semblent donc indiquer qu'aux Pays-Bas la limite séparant la consommation de cannabis de celle d'autres stupéfiants semble plus « difficile » à franchir que dans d'autres pays. A l'autre extrême du spectre des politiques en matière de stupéfiants, on constate que la politique plus globalement répressive menée aux Etats-Unis est associée à un chevauchement beaucoup plus prononcé entre la consommation de cannabis et celle d'autres stupéfiants. En d'autres termes, il semble que plus une politique en matière de stupéfiants est indifféremment répressive, plus elle facilitera le passage de la consommation de cannabis à celle d'autres stupéfiants, sans pour autant diminuer le niveau global de consommation, alors qu'une politique tentant de séparer les différents marchés en se montrant plus tolérante envers certaines substances moins addictives limitera le taux de ceux passant à usage de substances plus nocives. Nous sommes bien évidemment conscients qu'il s'agit ici de considérations rudimentaires basées sur une comparaison des extrêmes. C'est pourquoi, dans le chapitre final de l'ouvrage, nous avons tenté d'indiquer quels efforts devraient être entrepris afin de mieux opérationnaliser les politiques nationales en matière de stupéfiants. En effet, ce n'est que sur la base de tels efforts de standardisation qu'une analyse comparative quantitative satisfaisant à des critères scientifiques plus rigoureux deviendrait possible et permettrait dès lors de mieux dégager l'impact des politiques mises en oeuvre. 4.1.3. Contribution personnelle à cette recherche Le projet ISRD a été conçu entre 1988 et 1990 par un groupe de chercheurs qui s'était initialement rencontré dans le cadre d'un atelier international de l'OTAN sur les méthodes avancées organisé par le prof. Malcolm W. Klein et le Centre de recherche et de documentation du Ministère de la Justice des Pays-Bas (WODC). Par la suite c'est ce -même ministère qui sous l'égide du Prof. Josine Junger-Tas s'est chargé de la coordination du projet. La récolte de données dans les différents pays s'est déroulée entre 1991 et 1992 sous la direction des groupes de recherches nationaux respectifs. Après la parution du premier volume sur cette recherche en 1994 (Junger-Tas et al., 1994) présentant les résultats individuellement au niveau de chaque pays, le WODC s'est chargé d'assembler les bases de données des différents échantillons en une seule base de donnée en vue des analyses comparatives. Faute de fonds, il fallu attendre une requête du Prof. Martin Killias auprès du FNRS pour reprendre les travaux. C'est dans le cadre du projet ainsi octroyé que j'ai réalisé entre septembre 1999 et juin 2002, ensemble avec les Prof. Josine Junger-Tas et Ineke Haen Marshall, ma recherche sur la base de données ISRO. La première tâche a consisté à achever les efforts de standardisation entamés par le WODC. Bien qu'<< invisibles >>, ce n'est que sur la base de ces fastidieux travaux que des analyses comparatives dignes de ce nom ont été rendues possible. De manière générale, les données ont été standardisées par rapport aux populations retenues dans l'échantillon, par rapport aux modalités des réponses - certains chercheurs avaient opté pour d'autres formats de réponses que leurs collègues - ainsi que par rapport à la codification des valeurs manquantes. Dans un deuxième temps, nous avons créé différents indicateurs de la délinquance juvénile (variables dépendantes) ainsi qu'une série de variables explicatives sur la base de recodifications et recombinaisons des variables originales. Ce n'est qu'après ces travaux préparatifs décrits en détail au chapitre 2 de l'ouvrage que les analyses proprement dites ont été effectuées. Ainsi, ma contribution à l'ouvrage en question a consisté à standardiser la base de données tel que nous l'avions reçue du WODC, ensuite à créer des variables en vue des analyses comparatives et finalement à effectuer tolites les analyses présentées dans l'ouvrage sauf celles du chapitre 7. Pour ce qui est des travaux de rédaction, j'y ai contribué comme auteur unique du chapitre 5, soit celui faisant partie de la présente thèse de doctorat, ainsi que comme co-auteur des chapitres 1, 2, 6 et 8. 4.2. Le lien « drogue-criminalité » dans la perspective de la théorie du contrôle de soi de Gottfredson et Hirschi 4.2.1. Titre original de la publication et indications bibliographiques Ribeaud, Denis & Eisner, Manuel (2006). « The "drug-crime link" from a self-control perspective: An empirical test in a Swiss youth sample », European Journal of Criminology, 3 (1), 33-68. 4.2.2. Résumé Cet article se propose d'explorer dans quelle mesure un déficit du contrôle de soi (« low self-control ») est propre à expliquer le lien empiriquement bien établi entre consommation de psychotropes et délinquance. Sur la base d'un échantillon représentatif de plus de 2'600 élèves de 9erne du canton de Zurich (cf. Eisner et al., 2000) nous nous proposons de réanalyser la dimensionalité de l'échelle du contrôle de soi développée par Grasmick et al. (1993) au moyen d'analyses factorielles confirmatoires. Ces analyses nous ont mené à un modèle factoriel de second ordre composé de cinq dimensions. Ce modèle suggère que tels que le réclament Gottfredson et Hirschi dans leur publication originale (1990) les traits de la personnalité « impulsivité », « goût du risque », « manque de tolérance aux frustrations >), « égocentrisme » ainsi que « préférence pour des activités physique » peuvent effectivement être conçus comme les éléments d'un unique trait sous-jacent de la personnalité, soit le « déficit de contrôle de soi ». Toutefois, en désaccord avec la théorie, nos analyses ont montré qu'une sixième caractéristique prétendument constituante du « déficit de contrôle de soi », soit une « préférence pour des tâches aisées », ne peut être empiriquement conçue comme telle. Le modèle de mesure du « déficit de contrôle de soi » ainsi établi est ensuite utilisé comme variable explicative de deux dimensions comportementales, soit la consommation de substances psychoactives d'une part et la délinquance générale d'autre part. Les résultats indiquent que le « déficit de contrôle de soi » est un prédicteur aussi puissant que stable des deux types de comportements à problème, ceci corroborant donc la théorie de Gottfredson et Hirschi. Toutefois, bien que le « déficit de contrôle de soi » explique une part substantielle de la corrélation entre les deux dimensions comportementales - soit le lien entre consommation de psychotropes et délinquance - il reste une corrélation résiduelle substantielle entre ces deux types de comportements. Diverses considérations théoriques nous ont mené à la conclusion que cette corrélation résiduelle est plus probablement attribuable à des facteurs dynamiques (« state dependent factors », Nagin et Paternoster, 2000) qu'a d'autres facteurs stables de la personnalité (concept de la « population heterogeneity », Nagin et Paternoster, 2000) Nous avons par ailleurs analysé dans quelle mesure chaque sous-dimension du « déficit de contrôle de soi » est apte à expliquer la consommation de substances psychoactives, la délinquance ainsi que le lien entre les deux. Ces analyses suggèrent qu'au niveau de la prédiction de ces deux types de comportements, le « déficit de contrôle de soi » pourrait être réduit à un construit bidimensionnel composé des traits de l'« impulsivité » et du « goût du risque ». L'article se conclut par une discussion des résultats trouvés dans le contexte de la recherche passée ainsi que du débat théorique en cours. En particulier, j'ai tenté de démontrer comment le modèle proposé par Brochu (1995) peut être conçu comme une tentative d'intégration des modèles théoriques centrés sur les différences stables dans la population (« population heterogeneity ») - parmi lesquels aussi la théorie du « déficit du contrôle de soi » et ceux s'intéressant plutôt aux facteurs dynamiques (« state dependence ») et comment ce modèle permet de réconcilier ces deux approches à priori contradictoires. 4.2.3. Contribution personnelle à cette recherche L'étude zurichoise à la base de cette contribution a été menée sous la direction du Prof. Manuel Eisner entre 1999 et 2000 et financée par la Département de l'éducation du Canton de Zurich. Le questionnaire ainsi que la méthodologie de l'étude à la base de l'étude ont été développés par l'Institut de recherche criminologique de Basse-Saxonie (KFN). Il convient cependant d'indiquer ici que c'est au Prof. Eisner que revient le mérite d'avoir ajouté l'échelle de Grasmick et al. au questionnaire. Ayant fait d'emblée partie de l'équipe de recherche, j'ai eu l'occasion de participer autant à l'adaptation du questionnaire qu'a la planification et la coordination de la récolte de données. En particulier, le domaine de l'échantillonnage m'a été entièrement confié. La saisie ainsi que la préparation des données ont été assurées par le KFN. Ma contribution à l'article en question comprend autant sa conception, la réalisation des analyses, ainsi que sa rédaction. La contribution de mon co-auteur, Manuel Eisner, a tout d'abord consisté en sa fonction de directeur de recherche de même que, dans la version finale soumise à l'European Journal of Criminology, dans la relecture critique de l'article et dans la co-rédaction des conclusions. 4.3. Effets à long terme des essais avec prescription d'héroïne sur la délinquance des consommateurs d'héroïne traités 4.3.1. Titre original de la publication et indications bibliographiques Ribeaud, Denis (2004). « Long-term impacts of the Swiss heroin prescription trials on crime of treated heroin users >), Journal of Drug Issues, 34 (1), 163-194. 4.3.2. Résumé Dans le cadre des projets suisses avec prescription d'héroïne (PROVE, 1994-1996) plus de 1'000 consommateurs d'héroïne gravement dépendants ont été enrôlés autant dans le programme de traitement que dans son évaluation scientifique. Alors que les effets à court et à moyen terme avaient été analysés en détail dans des études précédentes (cf. Killias et al., 1999; Uchtenhagen et al., 1999), peu de données étaient disponibles sur les effets du programme à plus long terme, les données sur les participants ayant interrompu le programme étant particulièrement rares. Afin de remplir partiellement cette lacune, en été 2000, les fichiers de police de tous les participants au programme - soit donc aussi de ceux qui l'avaient quitté entre-temps - ont été saisis auprès des onze corps de police recouvrant toutes les localités où un programme avec prescription d'opiacés avait été mis en place. Sur la base de ces données, notre article analyse les effets à long terme - soit sur une période de 48 mois après l'admission - du programme PROVE sur la délinquance et, dans une certaine mesure, sur les comportements addictifs des participants. Avant la présentation des résultats proprement dit, nous avançons quelques réflexions méthodologiques sur la validité des données de police comme indicateurs de l'évolution de l'implication délinquante, l'argument principal étant qu'il est peu probable que le déclin général observé soit lié à une diminution de la dénonciation de délits par la police puisque le déclin constaté pour les délits typiquement découverts et dénoncés par la police (p. ex. infractions contre la LStup) est presque identique à celui observé pour les délits typiquement dénoncés par la population générale et le commerce (p. ex. vols et cambriolages). Toutefois nous constatons que cette congruence n'est que partielle pour ce qui est de la période avant le début du traitement et tentons d'expliquer cette dissimilarité. Les résultats suggèrent que la prescription d'héroïne est à la source d'un déclin prononcé et stable de l'implication délinquante des personnes traitées. Un désistement similaire peut être observé pour une large gamme de délits et pour différentes sous-populations - par rapport à l'âge, au sexe, à la consommation d'autres substances et à la durée du traitement. Bien que la diminution la plus prononcée soit observée dans le groupe de ceux traités sans interruption, il semble toutefois que les effets du traitement persistent dans la période post-traitement. Il est en particulier intéressant de noter que les taux post-traitement pour possession d'héroïne se stabilisent à un niveau bas, ceci indiquant que la majorité de ceux ayant quitté le programme ne reprennent pas leur consommation d'héroïne. Comme le suggèrent certaines analyses complémentaires, il semble que cette stabilisation est en particulier due à la capacité du programme de rediriger la majorité des patients vers des traitements alternatifs une fois que ceux-ci ont quitté le programme. 4.3.3. Contribution personnelle à cette recherche L'article en question fait partie d'une recherche mandatée par l'Office fédéral de la santé publique (OFSP) en 1999. S'agissant d'une étude de suivi au premier mandat d'évaluation criminologique du programme PROVE par l'OFSP, sa méthodologie était prédéfinie d'emblée. L'équipe de recherche dirigée par le Prof. Martin Killias et constituée de Marcelo Aebi et de moi-même - ainsi que de quelques autres collaborateurs et étudiants chargés de la récolte proprement dite - a toutefois revu et amélioré le schéma de récolte développé lors de la première étude. J'ai ensuite participé à cette étude en tant que coordinateur de la récolte de données dans les corps de police suisses alémaniques impliqués (à l'exception de Bâle-Ville). La coordination de la saisie et la préparation des données ont été principalement assurées par Marcelo Aebi. Par la suite j'ai mené une première analyse de ces données qui a abouti à une première publication (Ribeaud Aebi, 2001). Certains résultats ont aussi été présentés dans le rapport de recherche correspondant (Killias et al., 2002). L'article présenté ici se distingue des publications susmentionnées par une réanalyse approfondie des données de police récoltées en 2000. J'en ai entièrement assuré la conception, les analyses ainsi que la rédaction. 4.4. La diminution de la délinquance dans le cadre des essais suisses avec prescription d'héroïne: Est-elle due à la réintégration sociale des personnes traitées ? 4.4.1. Titre original de la publication et indications bibliographiques Ribeaud, Denis (2005). « Gibt es einen Delinquenzrückgang durch soziale Reintegration im Rahmen der schweizerischen Heroin-verschreibungsversuche? >), Sucht, 51 (2), 76-87. 4.4.2. Résumé Le but de cet article est d'examiner si la diminution de la délinquance des personnes traitées dans le cadre des essais suisses avec prescription d'héroïne (PROVE) est accompagnée, au niveau de l'individu, d'une évolution complémentaire des indicateurs de la situation sociale et des comportements addictifs de ces personnes, ceci entre autre dans le but de vérifier si le désistement observé est attribuable à un processus de réintégration sociale. Afin de vérifier cette hypothèse générale, nous avons tout d'abord fusionné la base contenant les données des interviews de suivi sur les comportements délinquants avec celle portant sur le domaine des comportements addictifs et sur l'intégration sociale et économique des patients. En effet, avant cette recherche, ces deux bases de données n'avaient jamais été analysées conjointement au niveau individuel. Qui plus est, les résultats publiés sur ces deux domaines ne se basaient pas sur les mêmes échantillons, rendant donc les comparaisons entre les deux domaines quelque peu hasardeuses. C'est pourquoi nous avons, sur la base de ces données fusionnées, tout d'abord vérifié s'il s'en dégageait les mêmes lignes de développement que celles observées dans les publications originales, soit Killias et al. (2003) et Uchtenhagen et al. (1999). À une exception près qui concernait l'intégration professionnelle, nous avons pu reproduire les résultats originaux. Nous avons ensuite procédé à la vérification de l'hypothèse centrale en nous concentrant sur le groupe des patients ayant indiqué des activités délinquantes avant l'entrée dans le programme. L'analyse, techniquement basée sur des régressions logistiques bivariées, consistait à examiner, pour chaque indicateur de la situation sociale et des comportements addictifs, s'il y avait un parallélisme entre désistement et réintégration sociale ou comportements addictifs. Plus concrètement, il s'agissait d'examiner si, par exemple, ceux qui ne présentaient plus de délinquance pendant le traitement étaient surreprésentés dans le groupe de ceux qui avaient trouvé un emploi ou qui en avaient toujours eu un. Les résultats nous ont mené à une vue différenciée du phénomène de désistement, en ce sens que le retrait de la « scène de la drogue » ne peut être confondu avec une réintégration socio-économique : En effet, alors que la diminution de la délinquance va de pair avec un retrait de la « scène de la drogue » et des comportements addictifs correspondants, nous n'avons pas pu observer un parallélisme équivalent entre désistement et réintegration sociale telle qu'indiquée par des indicateurs comme l'emploi, la dépendance d'aides financières ou encore la situation de logement. Nos analyses nous mènent à la conclusion que la réduction de la délinquance s'explique essentiellement par le fait de la relâche de compulsions économiques engendrées par la prescription d'héroïne et non du fait d'une réintégration sociale. Des publications récentes sur l'évolution à long terme de la situation sociale des personnes traitées (cf. semblent d'ailleurs indiquer que, même après plusieurs années de traitement, l'intégration socio-économique des patients ne s'est guère améliorée. Ceci suggère que l'appui psychosocial offert aux patients et qui était censé assurer leur réintégration ne s'est montré guère efficace. Ces résultats sont aussi intéressant au niveau théorique : En effet, alors qu'ils corroborent le concept de délinquance « économico-compulsive », telle que décrit par Brochu (1995), ils sont en opposition autant avec la théorie du « contrôle de soi » de Gottfredson et Hirschi (1990), qui n'offre pas les instruments théoriques nécessaires à l'explication d'une pareil « implosion » de l'activité délinquante, qu'avec la théorie du contrôle social de Hirschi (1969) qui aurait laissé supposer que la diminution de la délinquance devrait aller de pair avec un renforcement des liens avec la société conventionnelle. 4.4.3. Contribution personnelle à cette recherche S'agissant d'une réanalayse de données récoltées entre 1994 et 1996, soit avant mon arrivée à l'IPSC, il est évident que je n'ai pas eu l'occasion de participer à la conception générale du projet PROVE, au développement des instruments, ainsi qu'a la récolte de données. Ma première tâche a consisté à assembler les données de suivi de l'évaluation criminologique, soit de l'étude menée à l'IPSC, avec celles de l'évaluation du développement psychosocial, soit l'étude menée à l'Institut Kir Suchtforschung (ISF). Comme pour l'étude ISRD, ces travaux préparatoires se sont avérés fort délicats et de longue haleine L'idée de recherche m'était venue en constatant que, d'une part, nous disposions de résultats acquis concernant l'effet bénéfique du programme PROVE sur la diminution de la délinquance des personnes traitées, ainsi que sur différents domaines de leurs situation sociale, et que d'autre part, peu de connaissances étaient acquises sur les mécanismes du processus de désistement. Disposant de données longitudinales prospectives pour les deux domaines comportementaux, ce ne fût plus qu'un petit pas que de conclure qu'une analyse de la coévolution au niveau individuel entre les comportements délinquants, d'une part, et certains indicateurs du domaine psychosocial, d'autre part, pourrait s'avérer utile pour la détection de tels mécanismes. C'est sur la base de cette réflexion et de ces travaux préparatoires que j'ai ensuite analysé les données et que j'ai présenté des premiers résultats au colloque de l'Association des criminologues de langue française (AICLF) en 2002. L'article finalement soumis auprès de « Sucht » se base sur un affinement de ces analyses initiales.