1000 resultados para Stratégies de gestion du risque
Resumo:
Textos diversos, elaborados por t??cnicos do governo e especialistas de pa??ses-membros da OCDE Organiza????o para Coopera????o e Desenvolvimento Econ??mico, analisando a evolu????o recente da gest??o de pessoal no setor p??blico ao mesmo tempo em que s??o colocados problemas levantados pelas pol??ticas de recursos humanos ent??o adotadas.
Resumo:
Com este artigo pretende-se sistematizar e discutir os resultados e conclusões de alguns estudos sobre adequações curriculares para dar resposta às necessidades educativas especiais, realizados no âmbito do mestrado em educação especial na Escola Superior de Educação de Lisboa. Após um breve enquadramento teórico, apresentam-se resultados e conclusões sobre as perspetivas de professores de diferentes ciclos de escolaridade em relação à gestão do currículo, às necessidades educativas especiais e à forma de definição das medidas educativas e curriculares a adotar. Confrontam-se depois estes resultados com as medidas efetivamente expressas nos documentos organizadores da intervenção com estes alunos e ainda com os resultados de observações realizadas em sala de aula. Conclui-se que um longo caminho já foi percorrido no que se refere a valores e princípios, mas que é necessário reforçar as componentes pedagógicas e didáticas do ensino destes alunos, de forma a que a inclusão não se reduza apenas a um processo de socialização e conduza a uma real aprendizagem.
Resumo:
L'objectif de la thèse est de rendre compte d'une pratique langagière particulière, le débat, et d'opérer ce travail à la fois à un niveau théorique - en tant qu'analyser la pratique du débat pose certaines questions aux sciences du langage - et à un niveau pratique - dans la mesure où la spécificité du débat repose sur certains observables qu'il s'agit d'identifier et de décrire et qui permettent à chacun de distinguer le débat d'autres formes de comportement, telles que l'anecdote, la dispute ou encore la réunion de travail.¦La thèse part du constat que la pratique du débat constitue un fait social attesté et reconnaissable comme tel, et ce aussi bien par les agents qui s'engagent dans son accomplissement que par un observateur externe. Le fait qu'aucune règle ne vienne pour autant décrire «ce qui fait débat» plaide pour l'adoption d'une perspective ethnométhodologique, sensible à la manière dont les agents pourvoient eux-mêmes, en agissant de façon méthodique et routinière, à la reconnaissabilité (accountability) des pratiques dans lesquelles ils s'engagent.¦La thèse questionne le caractère reconnaissable de la pratique du débat à partir de données originales. Le corpus est constitué de huit événements publics s'étant déroulés à l'Université de Lausanne et ayant été vidéo-enregistrés pour l'occasion. Ces rencontres ne relèvent donc pas d'événements télédiffusés, par exemple des débats de sociétés organisés par des chaînes de télévision. Il s'agit de confrontations verbales (de types « débats publics » ou « conférence-discussion ») où tous les participants, public compris, sont réunis en un même lieu et dans une même tranche temporelle.¦La thèse organise la réflexion en trois parties. Intitulée la parole en interaction médiatisée, la première partie est consacrée à la présentation et à la problématisation, grâce à divers extraits du corpus, des différentes dimensions analytiques mobilisées. Par l'articulation d'acquis en linguistique textuelle et énonciative et en analyse conversationnelle, il s'agit d'étudier la matérialité signifiante des actions verbales en lien avec les dynamiques discursives et interactionnelles dans lesquelles cette matérialité s'inscrit et prend sens. En d'autres termes, on considère la manière dont les unités linguistiques participent à l'accomplissement d'activités pratiques et les pressions que ces activités pratiques sont susceptibles d'exercer sur l'usage de ces unités. L'analyse du débat est en outre inscrite dans une approche multimodale des pratiques, qui entend dépasser l'analyse de la seule verbalité pour donner une place aux ressources corporelles, qu'il s'agisse de gestes, de mimiques ou de la répartition des participants dans l'espace.¦Une fois les différentes dimensions analytiques posées, les deux autres parties examinent chacune une composante - autrement dit un observable - qui spécifie le débat en tant que pratique langagière particulière. Mobilisant une approche dialogale de la pratique de l 'argumentation, la deuxième partie entend montrer que le débat gagne à être abordé comme un mode particulier de gestion du désaccord, fondé sur l'usage de ressources argumentatives. La troisième partie s'intéresse finalement à la problématique de l'inscription de l'identité dans le langage et dans l'interaction et considère la manière dont les traits identitaires que les agents s'attribuent, respectivement ou réciproquement, lorsqu'ils s'engagent dans un débat, participent à assurer le caractère reconnaissable de cette pratique.
Resumo:
Objectifs: Connaître les derniers développements techniques dans l'exploration de l'embolie pulmonaire aigue en imagerie (scanner et IRM). Connaître l'intérêt de la probabilité clinique pré-test dans l'indication de l'imagerie. Savoir faire une interprétation intégrée du scanner dans de l'embolie pulmonaire aiguë. Connaître chez les particularités de réalisation d'un examen chez la femme enceinte. Messages à retenir: Le scanner reste indiqué si les D-dimers sont négatifs et la probabilité clinique pré-test d'une embolie pulmonaire aiguë est élevée. Le scanner a une valeur diagnostique mais aussi une valeur pronostique dans la stratification du risque d'événement fatal chez les patients porteurs d'une embolie pulmonaire aiguë. Résumé: Durant la dernière décennie, l'imagerie en coupe s'est imposée comme moyen diagnostique incontournable dans l'embolie pulmonaire aiguë (EPA). Les nouveaux développements techniques ainsi que les récentes études ont contribué à mieux définir la valeur diagnostique du scanner et de l'IRM. En particulier, trois questions méritent d'être discutées : La probabilité clinique pré-test a-t-elle une importance dans l'indication de l'imagerie? ; (2) Faut-il synchroniser le scanner au rythme cardiaque devant une suspicion d'EPA ? ; (3) Quelles précautions faut-il prendre chez la femme enceinte ? Par ailleurs, La valeur pronostique du scanner mérite d'être connue et utilisée à bon escient.
Resumo:
Abstract: The increasingly high hygienic standards characterizing westernized societies correlate with an increasingly high prevalence of allergic disease. Initially based on these observations, the hygiene hypothesis postulates that reduced microbial stimulation during infancy impairs the immune system development and increases the risk of allergy. Moreover, there is increasing evidence that the crosstalk existing between the intestine and the resident microbiota is crucial for gut homeostasis. In particular, bacterial colonization of the gut affects the integrity of the gut barrier and stimulates the development of the gut associated immune tissue, both phenomena being essential for the immune system to mount a controlled response to food antigens. Therefore, alterations in the microbial colonization process, by compromising the barrier homeostasis, may increase the risk of food allergy. In this context, antibiotic treatment, frequently prescribed during infancy, affects gut colonization by bacteria. However, little is known about the impact of alterations in the colonization process on the maturation of the gut barrier and on the immunological response to oral antigens. The objective of this work was to determine the impact of a commercial antibiotic preparation employed in pediatric settings on the gut barrier status at the critical period of the suckling/weaning transition and to evaluate the physiological consequences of this treatment in terms of immune response to food antigens. We established an antibiotic-treated suckling rat model relevant to the pediatric population in terms of type, dose and route of administration of the antibiotic and of changes in the patterns of microbial colonization. Oral tolerance to a novel luminal antigen (ovalbumin) was impaired when the antigen was introduced during antibiotic treatment. These results paralleled to alterations in the intestinal permeability to macromolecules and reduced intestinal expression of genes coding for the major histocomptatibility complex II molecules, which suggest a reduced capacity of antigen handling and presentation in the intestine of the antibiotic-treated animals. In addition, low luminal IgA levels and reduced intestinal expression of genes coding for antimicrobial proteins suggest that protection against pathogens was reduced under antibiotic treatment. In conclusion, we observed in suckling rats that treatment with abroad-spectrum antibiotic commonly used in pediatric practices reduced the capacity of the immune system to develop tolerance. The impact of the antibiotic treatment on the immune response to the antigen-was likely mediated by the alterations of the gut microbiota, through impairment in the mechanisms of antigen handling and presentation. This work reinforces the body of data supporting a key role of the intestinal microbiota modulating the risk of allergy development and leads us to propose that the introduction of new food antigens should be avoided during antibiotic treatment in infants. Résumé: L'augmentation du niveau d'hygiène caractérisant les sociétés occidentales semble être fortement corrélée avec l'augmentation des cas d'allergie dans ces pays. De cette observation est née l'hypothèse qu'une diminution des stimuli microbiens pendant l'enfance modifie le développement du système immunitaire augmentant ainsi le risque d'allergie. En ce sens, un nombre croissant de données indiquent que les interactions existant entre l'intestin et les bactéries résidantes sont cruciales pour l'équilibre du système. En effet, la présence de bactéries dans l'intestin affecte l'intégrité de sa fonction de barrière et stimule le développement du système immunitaire intestinal. Ces deux paramètres étant essentiels à la mise en place d'une réponse contrôlée vis à vis d'un antigène reçu oralement, toute modification du processus naturel de colonisation compromettant l'équilibre intestinal pourrait augmenter le risque d'allergie. Les traitements aux antibiotiques, fréquemment prescrits en pédiatrie, modifient de façon conséquente le processus de colonisation bactérienne. Cependant peu de données existent concernant l'impact d'une altération du processus de colonisation sur la maturation de la barrière intestinale et de la réponse immunitaire dirigée contre un antigène. L'objectif de ce travail était de déterminer l'impact d'un antibiotique commercial et employé en pédiatrie sur l'état de la barrière intestinale au moment critique du sevrage et d'évaluer les conséquences physiologiques d'un tel traitement sur la réponse immune à un antigène alimentaire. Nous avons mis en place un modèle de rats allaités, traités à l'antibiotique, le plus proche possible des pratiques pédiatriques, en terme de nature, dose et voie d'administration de l'antibiotique. Nous avons constaté que l'établissement de la tolérance orale à un nouvel antigène (l'ovalbumine) est altéré quand celui-ci est donné pour la première fois au cours du traitement antibiotique. Ces résultats coïncident avec une diminution de la perméabilité intestinale aux macromolécules, ainsi qu'avec une diminution de l'expression des gènes codant pour les molécules du complexe majeur d'histocomptatibilité de classe II, suggérant une modification de l'apprêtement et de la présentation de l'antigène au niveau intestinal chez les rats traités à l'antibiotique. De plus, un faible taux d'IgA et une diminution de l'expression des gènes codant pour des protéines antimicrobiennes, observés après l'administration d'antibiotique, laissent à penser que la protection contre un pathogène est diminuée lors d'un traitement antibiotique. En conclusion, nous avons observé qu'un traitement antibiotique à large spectre d'activité, couramment utilisé en pédiatrie, réduit la capacité d'induction de la tolérance orale chez le rat allaité. L'impact du traitement antibiotique sur la réponse immune semble induite par l'altération de la flore intestinale via son effet sur les mécanismes d'apprêtement et de présentation de l'antigène. Ce travail renforce l'ensemble des données existantes qui accorde à la flore intestinale un rôle clef dans la modulation du risque de développement d'allergie et nous amène à recommander d'éviter l'introduction d'un nouvel aliment lorsqu'un enfant est traité aux antibiotiques.
Resumo:
La mort est au centre de toutes les sociétés. Quelles que soient les procédures funéraires suivies - de la crémation du cadavre à l'embaumement le plus sophistiqué -, la mort fait l'objet de traitements obéissant aux conceptions que les sociétés se font de la mort elle-même, du devenir du défunt et des relations que les vivants entretiennent avec ce dernier. Si la mort donne lieu à des rites funéraires fort variés, ceux-ci partagent cependant des fonctions communes: prendre acte d'une rupture tout en la dissolvant dans le temps long d'une transition, créer un espace dans le temps ordinaire continu, recomposer du lien social là où la mort a imposé un vide.... Etudier les rites funéraires, c'est donc s'intéresser aux réponses culturelles développées par les êtres humains face à la mort biologique, s'interroger sur les pratiques mises en place pour accompagner les défunts, mais aussi aborder la question du deuil et de la séparation des vivants d'avec leurs morts. -- Trois dimensions Pour transmettre ces connaissances, une nouvelle forme de communication multimédia a été mise au point au sein d'une équipe interdisciplinaire sciences humaines-informatique : «les eTalks», un nouveau nom que nous nous permettons d'utiliser désormais en français. Cette nouvelle forme est décrite plus bas. Quant à leur contenu, les eTalks proposés sont issus de deux cycles de formation continue organisés par l'Université de Lausanne et la Haute école pédagogique du canton de Vaud en 2010 et 2012. Les conférences, données par des professeurs d'université, de Hautes Ecoles ou par des praticiens, s'adressaient à un public provenant d'horizons professionnels très variés (enseignants, agents funéraires, membres du corps médical, représentants des communautés religieuses, etc.). Il est donc à relever que les genres littéraires de ces e-talks varient, depuis la communication académique standard, jusqu'aux témoignages de professionnels engagés sur le terrain. -- Pour des raisons de clarté, nous avons regroupé les eTalks en trois sous-thèmes: -- 1. A la découverte des cultures funéraires Génératrice de culture depuis la préhistoire, la mort suscite des attitudes et des pratiques diversifiées selon les époque et les sociétés. Les eTalks regroupés ici visent à présenter et à expliquer des pratiques funéraires développées dans trois traditions religieuses distinctes - l'Egypte ancienne, le monde réformé (du XVIe - XIXe siècle) et l'islam - et invitent ainsi à comparer des usages provenant d'horizons culturels très différents. -- 2. Rites funéraires sur le terrain Dans nos sociétés très institutionnalisées, la mort et les demandes de rites funéraires qui en découlent ont aussi un impact au sein des établissements professionnels que l'on fréquente à différentes étapes de nos vies. Les eTalks regroupés ici s'intéressent aux rites funéraires et à la gestion du deuil dans des institutions telles que l'école, les établissements médico-sociaux, le monde du travail et les pompes funèbres. Ils joignent des recherches menées sur le terrain et rendent compte des expériences vécues par les acteurs institutionnels confrontés à la mort. -- 3. Rites funéraires contemporains Certains déplorent la déperdition des rites funéraires dans nos sociétés contemporaines. Mais en est-il vraiment ainsi ? N'assiste-t-on pas aujourd'hui à une revitalisation des formes rituelles que ce soit à travers la reélaboration de pratiques anciennes ou la création de nouveaux rites ? Les eTalks regroupés ici démontrent en tous les cas une grande vitalité rituelle que ce soit par le biais de la réinterprétation et de l'adaptation des traditions religieuses ou de la créativité dont témoignent des non-croyants. Ils indiquent qu'après un temps marqué par l'éloignement de la mort, nous sommes peut-être engagés dans des formes multiples de réappropriation de cette dernière.
Resumo:
AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.
Resumo:
Since 1895, when X-rays were discovered, ionizing radiation became part of our life. Its use in medicine has brought significant health benefits to the population globally. The benefit of any diagnostic procedure is to reduce the uncertainty about the patient's health. However, there are potential detrimental effects of radiation exposure. Therefore, radiation protection authorities have become strict regarding the control of radiation risks.¦There are various situations where the radiation risk needs to be evaluated. International authority bodies point to the increasing number of radiologic procedures and recommend population surveys. These surveys provide valuable data to public health authorities which helps them to prioritize and focus on patient groups in the population that are most highly exposed. On the other hand, physicians need to be aware of radiation risks from diagnostic procedures in order to justify and optimize the procedure and inform the patient.¦The aim of this work was to examine the different aspects of radiation protection and investigate a new method to estimate patient radiation risks.¦The first part of this work concerned radiation risk assessment from the regulatory authority point of view. To do so, a population dose survey was performed to evaluate the annual population exposure. This survey determined the contribution of different imaging modalities to the total collective dose as well as the annual effective dose per caput. It was revealed that although interventional procedures are not so frequent, they significantly contribute to the collective dose. Among the main results of this work, it was shown that interventional cardiological procedures are dose-intensive and therefore more attention should be paid to optimize the exposure.¦The second part of the project was related to the patient and physician oriented risk assessment. In this part, interventional cardiology procedures were studied by means of Monte Carlo simulations. The organ radiation doses as well as effective doses were estimated. Cancer incidence risks for different organs were calculated for different sex and age-at-exposure using the lifetime attributable risks provided by the Biological Effects of Ionizing Radiations Report VII. Advantages and disadvantages of the latter results were examined as an alternative method to estimate radiation risks. The results show that this method is the most accurate, currently available, to estimate radiation risks. The conclusions of this work may guide future studies in the field of radiation protection in medicine.¦-¦Depuis la découverte des rayons X en 1895, ce type de rayonnement a joué un rôle important dans de nombreux domaines. Son utilisation en médecine a bénéficié à la population mondiale puisque l'avantage d'un examen diagnostique est de réduire les incertitudes sur l'état de santé du patient. Cependant, leur utilisation peut conduire à l'apparition de cancers radio-induits. Par conséquent, les autorités sanitaires sont strictes quant au contrôle du risque radiologique.¦Le risque lié aux radiations doit être estimé dans différentes situations pratiques, dont l'utilisation médicale des rayons X. Les autorités internationales de radioprotection indiquent que le nombre d'examens et de procédures radiologiques augmente et elles recommandent des enquêtes visant à déterminer les doses de radiation délivrées à la population. Ces enquêtes assurent que les groupes de patients les plus à risque soient prioritaires. D'un autre côté, les médecins ont également besoin de connaître le risque lié aux radiations afin de justifier et optimiser les procédures et informer les patients.¦Le présent travail a pour objectif d'examiner les différents aspects de la radioprotection et de proposer une manière efficace pour estimer le risque radiologique au patient.¦Premièrement, le risque a été évalué du point de vue des autorités sanitaires. Une enquête nationale a été réalisée pour déterminer la contribution des différentes modalités radiologiques et des divers types d'examens à la dose efficace collective due à l'application médicale des rayons X. Bien que les procédures interventionnelles soient rares, elles contribuent de façon significative à la dose délivrée à la population. Parmi les principaux résultats de ce travail, il a été montré que les procédures de cardiologie interventionnelle délivrent des doses élevées et devraient donc être optimisées en priorité.¦La seconde approche concerne l'évaluation du risque du point de vue du patient et du médecin. Dans cette partie, des procédures interventionnelles cardiaques ont été étudiées au moyen de simulations Monte Carlo. La dose délivrée aux organes ainsi que la dose efficace ont été estimées. Les risques de développer des cancers dans plusieurs organes ont été calculés en fonction du sexe et de l'âge en utilisant la méthode établie dans Biological Effects of Ionizing Radiations Report VII. Les avantages et inconvénients de cette nouvelle technique ont été examinés et comparés à ceux de la dose efficace. Les résultats ont montré que cette méthode est la plus précise actuellement disponible pour estimer le risque lié aux radiations. Les conclusions de ce travail pourront guider de futures études dans le domaine de la radioprotection en médicine.
Resumo:
Introduction : S'il est des questions qui plongent les juristes et les médecins dans l'embarras, celle de l'information à délivrer au patient, composante de la théorie du consentement éclairé, occupe une place de choix. Depuis plusieurs années, les exigences relatives aux droits des patients, notamment le droit à l'information médicale, ont évolué parallèlement aux progrès vertigineux de la médecine et de la science. Il y a trente ans, ce principe était pratiquement inconnu de notre ordre juridique. En 1979, le Tribunal fédéral se pose formellement la question des limites du devoir d'information incombant au médecin. Soulignons qu'en 1940 déjà, les juges fédéraux avaient abordé l'existence d'un devoir d'information du thérapeute tout en niant son existence dans le cas d'espèce au motif que le patient n'aurait pas renoncé à l'intervention s'il avait été correctement informé du risque normal et minime que celle-ci comportait. Depuis lors, ce principe a été consacré par l'ensemble des législations sanitaires cantonales. La médecine humaine étant de la compétence des cantons, il a fallu attendre 1992 pour voir la création d'une norme constitutionnelle attribuant la première compétence à la Confédération dans le domaine du génie génétique et de la procréation médicalement assistée. La Confédération a ensuite reçu des compétences législatives en matière de médecine de transplantation. Enfin, un futur article 118a Cst permettant à la Confédération de légiférer dans le domaine de la recherche sur l'homme sera prochainement soumis aux votes du peuple et des cantons. Ces nouvelles lois fédérales concrétisent les principes généraux en matière d'information dégagés par le Tribunal fédéral au fil de sa jurisprudence et lui octroient une place importante s'agissant de domaines pointus où l'individu n'est que profane. Ces trente dernières années ont été marquées par un accroissement important des droits des patients corollairement lié à un affaiblissement du pouvoir des médecins. A ce jour, le point d'équilibre ne semble pas être atteint, la tendance étant de pratiquer de la médecine dite défensive, promouvant le consentement éclairé au rôle de protection juridique du thérapeute, oubliant sa fonction première de garantie du libre choix du patient. GUILLOD, dans une thèse faisant autorité en Suisse, ayant pour thème : le consentement éclairé du patient, Autodétermination ou paternalisme ? s'était déjà penché en 1986 sur la problématique de l'information. A cette période, la jurisprudence en la matière était peu importante, le droit fédéral était pratiquement inexistant et le droit cantonal commençait à émerger. Nous avons dès lors décidé de consacrer notre travail de doctorat au devoir d'information du médecin, eu égard au nombre considérable de décisions rendues en la matière et à l'évolution de la législation tant fédérale que cantonale. Pratiquement, cette étude se subdivise en trois parties. La première permettra d'analyser les différents fondements juridiques du devoir d'information. Nous nous proposons de commencer par un aperçu de la théorie des droits de la personnalité avant de l'appliquer au devoir d'information. Puis, nous examinerons le devoir d'information dans les autres domaines du droit, tels que le droit pénal, le droit des contrats, le droit public ou le droit international. De plus, vu l'importance des normes déontologiques dans ce domaine, celles-ci feront l'objet d'une analyse spécifique. Dans une deuxième partie, il s'agira de dessiner les contours de l'information médicale. Nous commencerons par déterminer les parties à cette information avant de déterminer l'étendue et le contenu du devoir incombant au médecin. Puis, nous aborderons successivement la question des modalités de l'information et la problématique du fardeau de la preuve. Ensuite, les limitations et les cas particuliers seront examinés. La suite du travail portera sur l'exigence d'un consentement libre et éclairé en sa qualité de corollaire à l'information. Enfin, nous terminerons par un examen du droit d'accès au dossier médical. La troisième partie consacre spécifiquement le devoir d'information dans les nouvelles lois fédérales médicales (LPMA, LRCS, LAGH, LTO, LSter, LPTh, AP LRH). Dans ce dernier volet, nous nous proposons de commencer par un examen des compétences de la Confédération en médecine humaine, puis nous analyserons ces différentes lois, essentiellement sous trois aspects : leur champ d'application, l'information et le consentement du patient.
Resumo:
This thesis focuses on theoretical asset pricing models and their empirical applications. I aim to investigate the following noteworthy problems: i) if the relationship between asset prices and investors' propensities to gamble and to fear disaster is time varying, ii) if the conflicting evidence for the firm and market level skewness can be explained by downside risk, Hi) if costly learning drives liquidity risk. Moreover, empirical tests support the above assumptions and provide novel findings in asset pricing, investment decisions, and firms' funding liquidity. The first chapter considers a partial equilibrium model where investors have heterogeneous propensities to gamble and fear disaster. Skewness preference represents the desire to gamble, while kurtosis aversion represents fear of extreme returns. Using US data from 1988 to 2012, my model demonstrates that in bad times, risk aversion is higher, more people fear disaster, and fewer people gamble, in contrast to good times. This leads to a new empirical finding: gambling preference has a greater impact on asset prices during market downturns than during booms. The second chapter consists of two essays. The first essay introduces a foramula based on conditional CAPM for decomposing the market skewness. We find that the major market upward and downward movements can be well preadicted by the asymmetric comovement of betas, which is characterized by an indicator called "Systematic Downside Risk" (SDR). We find that SDR can efafectively forecast future stock market movements and we obtain out-of-sample R-squares (compared with a strategy using historical mean) of more than 2.27% with monthly data. The second essay reconciles a well-known empirical fact: aggregating positively skewed firm returns leads to negatively skewed market return. We reconcile this fact through firms' greater response to negative maraket news than positive market news. We also propose several market return predictors, such as downside idiosyncratic skewness. The third chapter studies the funding liquidity risk based on a general equialibrium model which features two agents: one entrepreneur and one external investor. Only the investor needs to acquire information to estimate the unobservable fundamentals driving the economic outputs. The novelty is that information acquisition is more costly in bad times than in good times, i.e. counter-cyclical information cost, as supported by previous empirical evidence. Later we show that liquidity risks are principally driven by costly learning. Résumé Cette thèse présente des modèles théoriques dévaluation des actifs et leurs applications empiriques. Mon objectif est d'étudier les problèmes suivants: la relation entre l'évaluation des actifs et les tendances des investisseurs à parier et à crainadre le désastre varie selon le temps ; les indications contraires pour l'entreprise et l'asymétrie des niveaux de marché peuvent être expliquées par les risques de perte en cas de baisse; l'apprentissage coûteux augmente le risque de liquidité. En outre, des tests empiriques confirment les suppositions ci-dessus et fournissent de nouvelles découvertes en ce qui concerne l'évaluation des actifs, les décisions relatives aux investissements et la liquidité de financement des entreprises. Le premier chapitre examine un modèle d'équilibre où les investisseurs ont des tendances hétérogènes à parier et à craindre le désastre. La préférence asymétrique représente le désir de parier, alors que le kurtosis d'aversion représente la crainte du désastre. En utilisant les données des Etats-Unis de 1988 à 2012, mon modèle démontre que dans les mauvaises périodes, l'aversion du risque est plus grande, plus de gens craignent le désastre et moins de gens parient, conatrairement aux bonnes périodes. Ceci mène à une nouvelle découverte empirique: la préférence relative au pari a un plus grand impact sur les évaluations des actifs durant les ralentissements de marché que durant les booms économiques. Exploitant uniquement cette relation générera un revenu excédentaire annuel de 7,74% qui n'est pas expliqué par les modèles factoriels populaires. Le second chapitre comprend deux essais. Le premier essai introduit une foramule base sur le CAPM conditionnel pour décomposer l'asymétrie du marché. Nous avons découvert que les mouvements de hausses et de baisses majeures du marché peuvent être prédits par les mouvements communs des bêtas. Un inadicateur appelé Systematic Downside Risk, SDR (risque de ralentissement systématique) est créé pour caractériser cette asymétrie dans les mouvements communs des bêtas. Nous avons découvert que le risque de ralentissement systématique peut prévoir les prochains mouvements des marchés boursiers de manière efficace, et nous obtenons des carrés R hors échantillon (comparés avec une stratégie utilisant des moyens historiques) de plus de 2,272% avec des données mensuelles. Un investisseur qui évalue le marché en utilisant le risque de ralentissement systématique aurait obtenu une forte hausse du ratio de 0,206. Le second essai fait cadrer un fait empirique bien connu dans l'asymétrie des niveaux de march et d'entreprise, le total des revenus des entreprises positiveament asymétriques conduit à un revenu de marché négativement asymétrique. Nous décomposons l'asymétrie des revenus du marché au niveau de l'entreprise et faisons cadrer ce fait par une plus grande réaction des entreprises aux nouvelles négatives du marché qu'aux nouvelles positives du marché. Cette décomposition révélé plusieurs variables de revenus de marché efficaces tels que l'asymétrie caractéristique pondérée par la volatilité ainsi que l'asymétrie caractéristique de ralentissement. Le troisième chapitre fournit une nouvelle base théorique pour les problèmes de liquidité qui varient selon le temps au sein d'un environnement de marché incomplet. Nous proposons un modèle d'équilibre général avec deux agents: un entrepreneur et un investisseur externe. Seul l'investisseur a besoin de connaitre le véritable état de l'entreprise, par conséquent, les informations de paiement coutent de l'argent. La nouveauté est que l'acquisition de l'information coute plus cher durant les mauvaises périodes que durant les bonnes périodes, comme cela a été confirmé par de précédentes expériences. Lorsque la récession comamence, l'apprentissage coûteux fait augmenter les primes de liquidité causant un problème d'évaporation de liquidité, comme cela a été aussi confirmé par de précédentes expériences.
Resumo:
RESUME L'anévrysme de l'aorte abdominale est une dilatation permanente et localisée de l'aorte abdominale d'un diamètre transverse supérieur à 30 mm. Il s'agit d'une maladie dégénérative et inflammatoire fréquente de l'aorte, présente chez environ 5% des hommes de 65 à 74 ans de la population générale, et chez 10% des hommes hospitalisés pour une revascularisation coronarienne chirurgicale. En effet, bien que la pathogenèse de l'anévrysme de l'aorte abdominale diffère de celle du processus d'athérosclérose, les deux maladies partagent de nombreux facteurs de risque, en particulier l'âge, l'hypertension artérielle et le tabagisme. L'anévrysme de l'aorte abdominale est une maladie silencieuse, et dans 20% des cas, sa première manifestation clinique est la rupture aiguë avec choc hémorragique. La mortalité totale d'une telle complication dépasse 90% et sa mortalité strictement opératoire est d'environ 50%. Ces chiffres contrastent étonnamment avec une mortalité inférieure à 5% en cas de cure chirurgicale élective de l'anévrysme, justifiant un programme de dépistage systématique de cette maladie par ultrasonographie abdominale. Plusieurs études ont actuellement prouvé l'efficience de tels programmes, tant du point de vue de leur impact sur la mortalité que de leur rapport coût-efficacité. La question d'un dépistage systématique de la population générale ou de celui de souspopulations sélectionnées en fonction de leurs facteurs de risque reste toutefois débattue. La prise en charge de l'anévrysme de l'aorte abdominale est en principe conservatrice pour les anévrysmes de faibles diamètres, la mortalité d'une telle approche étant comparable à celle d'une attitude d'emblée chirurgicale. L'indication opératoire est par contre posée pour les anévrysmes d'un diamètre supérieur à 55 mm en raison du risque inacceptable de rupture, la valeur du diamètre transverse de l'aorte représentant le facteur prédictif de rupture le plus fréquemment utilisé en pratique quotidienne. La cure chirurgicale ouverte est le traitement de référence de l'anévrysme de l'aorte abdominale, mais la cure minimale invasive par endoprothèse, disponible depuis le début des années 1990, représente une alternative attrayante. Le choix de l'approche thérapeutique dépend fortement des caractéristiques anatomiques de l'aorte, ainsi que des comorbidités et de la préférence du patient.
Resumo:
Introduction :¦Alors que le risque de métastases ganglionnaires est absent pour les adénomes coliques avec dysplasie de haut degré ou adénocarcinome intramuqueux limités à la muqueuse, ce risque existe à priori pour les adénomes avec transformation adénocarcinomateuse se définissant par l'envahissement de la sous-muqueuse (pT1). Néanmoins l'importance de leur potentiel à développer des métastases reste difficile à estimer posant un réel problème pour leur prise en charge. A ce jour, près de la moitié des adénocarcinomes débutants diagnostiqués sur des polypectomies est traitée par une résection colique chirurgicale complémentaire avec un curage ganglionnaire.¦Le but de cette étude est de quantifier le risque de développement de métastases ganglionnaires pour les adénocarcinomes pT1 et de définir les critères histologiques et macroscopiques utiles pour l'évaluation de ce risque.¦Méthode :¦Il s'agit d'une revue rétrospective de 32 cas d'adénocarcinomes colo-rectaux débutants chez 31 patients et recensés entre 2000 et 2010 à l'institut de pathologie du CHUV. Pour chaque tumeur nous avons procédé à une analyse macroscopique et histologique détaillée et nous l'avons corrélée à la rechercher de métastases ou de récidives lors du suivi. Enfin nous avons comparés nos résultats à une analyse de la littérature.¦Résultats et conclusion :¦Un seul adénocarcinome parmi les 32 adénocarcinomes recensés (3.13%) a présenté une métastase ganglionnaire avec 1 ganglion métastatique sur 21 ganglions prélevés. Aucune récidive n'a été mise en évidence lors du suivi des 32 adénocarcinomes. Ces résultats sont beaucoup plus optimistes que ceux de la littérature permettant de penser que la majorité de ces tumeurs peuvent être traités par polypectomie seule avec suivi endoscopique.¦Selon la littérature, les paramètres les plus significatifs pour la prédiction du risque métastatique sont un grade 3, une clearance inférieure à 2mm, un budding marqué (petits bourgeonnements de cellules tumorales éloignées de la masse tumorale principale), l'invasion du 3ème tiers de la sous-muqueuse (sm3) et l'invasion vasculaire. Notre étude confirme l'importance de la mise en évidence d'invasion lymphatique et montre un intérêt probable de la réaction de budding et de la taille du front d'invasion tumoral dans la prédiction du risque de développement de métastases ganglionnaires
Resumo:
Acute exercise increases energy expenditure (EE) during exercise and post-exercise recovery [excess post-exercise oxygen consumption (EPOC)] and therefore may be recommended as part of the multidisciplinary management of obesity. Moreover, chronic exercise (training) effectively promotes an increase in insulin sensitivity, which seems to be associated with increased fat oxidation rates (FORs). The main purpose of this thesis is to investigate 1) FORs and extra-muscular factors (hormones and plasma metabolites) that regulate fat metabolism during acute and chronic exercise; and 2) EPOC during acute post-exercise recovery in obese and severely obese men (class II and III). In the first study, we showed that obese and severely obese men present a lower exercise intensity (Fatmax) eliciting maximal fat oxidation and a lower reliance on fat oxidation at high, but not at low and moderate, exercise intensities compared to lean men. This was most likely related to an impaired muscular capacity to oxidize non-esterified fatty acids (NEFA) rather than decreased plasma NEFA availability or a change in the hormonal milieu during exercise. In the second study, we developed an accurate maximal incremental test to correctly and simultaneously evaluate aerobic fitness and fat oxidation kinetics during exercise in this population. This test may be used for the prescription of an appropriate exercise training intensity. In the third study, we demonstrated that only 2 wk of exercise training [continuous training at Fatmax and adapted high-intensity interval training (HIIT)], matched with respect to mechanical work, may be effective to improve aerobic fitness, FORs during exercise and insulin sensitivity, which suggest that FORs might be rapidly improved and that adapted HIIT is feasible in this population. The increased FORs concomitant with the lack of changes in lipolysis during exercise suggest an improvement in the mismatching between NEFA availability and oxidation, highlighting the importance of muscular (oxidative capacity) rather than extra-muscular (hormones and plasma metabolites) factors in the regulation of fat metabolism after a training program. In the fourth study, we observed a positive correlation between EE during exercise and EPOC, suggesting that a chronic increase in the volume or intensity of exercise may increase EE during exercise and during recovery. This may have an impact in weight management in obesity. In conclusion, these findings might have practical implications for exercise training prescriptions in order to improve the therapeutic approaches in obesity and severe obesity. -- L'exercice aigu augmente la dépense énergétique (DE) pendant l'exercice et la récupération post-exercice [excès de consommation d'oxygène post-exercise (EPOC)] et peut être utilisé dans la gestion multidisciplinaire de l'obésité. Quant à l'exercice chronique (entraînement), il est efficace pour augmenter la sensibilité à l'insuline, ce qui semble être associé à une amélioration du débit d'oxydation lipidique (DOL). Le but de cette thèse est d'étudier 1) le DOL et les facteurs extra-musculaires (hormones et métabolites plasmatiques) qui régulent le métabolisme lipidique pendant l'exercice aigu et chronique et 2) l'EPOC lors de la récupération aiguë post-exercice chez des hommes obèses et sévèrement obèses (classe II et III). Dans la première étude nous avons montré que les hommes obèses et sévèrement obèses présentent une plus basse intensité d'exercice (Fatmax) correspondant au débit d'oxydation lipidique maximale et un plus bas DOL à hautes, mais pas à faibles et modérées, intensités d'exercice comparé aux sujets normo-poids, ce qui est probablement lié à une incapacité musculaire à oxyder les acides gras non-estérifiés (AGNE) plutôt qu'à une diminution de leur disponibilité ou à un changement du milieu hormonal pendant l'exercice. Dans la deuxième étude nous avons développé un test maximal incrémental pour évaluer simultanément l'aptitude physique aérobie et la cinétique d'oxydation des lipides pendant l'exercice chez cette population. Dans la troisième étude nous avons montré que seulement deux semaines d'entraînement (continu à Fatmax et intermittent à haute intensité), appariés par la charge de travail, sont efficaces pour améliorer l'aptitude physique aérobie, le DOL pendant l'exercice et la sensibilité à l'insuline, ce qui suggère que le DOL peut être rapidement amélioré chez cette population. Ceci, en absence de changements de la lipolyse pendant l'exercice, suggère une amélioration de la balance entre la disponibilité et l'oxydation des AGNE, ce qui souligne l'importance des facteurs musculaires (capacité oxydative) plutôt que extra-musculaires (hormones et métabolites plasmatiques) dans la régulation du métabolisme lipidique après un entraînement. Dans la quatrième étude nous avons observé une corrélation positive entre la DE pendant l'exercice et l'EPOC, ce qui suggère qu'une augmentation chronique du volume ou de l'intensité de l'exercice pourrait augmenter la DE lors de l'exercice et lors de la récupération post-exercice. Ceci pourrait avoir un impact sur la gestion du poids chez cette population. En conclusion, ces résultats pourraient avoir des implications pratiques lors de la prescription des entraînements dans le but d'améliorer les approches thérapeutiques de l'obésité et de l'obésité sévère.