169 resultados para calculs théoriques


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La lithiase rénale est une pathologie connue depuis très longtemps. Elle est très intéressante d'un point de vue épidémiologique car elle est présente dans le monde entier et reflète les habitudes alimentaires, les conditions sanitaires et le niveau de vie des populations. En effet, sa localisation, sa nature et son âge d'apparition sont associés au niveau économique d'une population donnée. Dans les pays ayant un niveau socioéconomique bas, les enfants jusqu'à 10 ans sont plus touchés que les adultes, avec un rapport garçons/filles très élevé, atteignant plus de 10. La localisation des calculs rénaux est surtout vésicale et ils sont composés majoritairement de phosphate ou d'acide urique. Par contre, dans les populations avec un niveau socioéconomique plus élevé comme c'est le cas actuellement en Europe, les adultes entre 30 et 50 ans sont majoritairement touchés avec un rapport hommes/femmes situé entre 1.5 et 2.5. La lithiase est essentiellement rénale et composée d'oxalate de calcium. Actuellement, dans la plupart des pays du monde, le calcul a une localisation rénale et est de nature oxalo-calcique, reflétant une amélioration des conditions de vie et un meilleur niveau de médicalisation. Peu de pays possèdent les moyens d'effectuer de larges études pour estimer la prévalence de la lithiase rénale. Cependant, toutes les études effectuées confirment que les calculs rénaux sont en progression dans le monde entier. Une forte augmentation de la prévalence de la lithiase rénale a notamment été observée depuis la fin de la deuxième guerre mondiale avec une mise sur le marché plus importante ainsi qu'une consommation croissante de boissons sucrées, de protéines animales et de chocolat riche en oxalate avec en parallèle une diminution de la consommation de produits laitiers et une sédentarisation de la population. La lithiase rénale comprend en effet des facteurs de risques environnementaux et sa progression est donc en grande partie due aux changements des habitudes de vie. Au cours des dernières décennies, les changements de mode de vie ont également favorisé l'augmentation de l'hypertension artérielle, de l'obésité ainsi que du diabète dans la population générale, eux-mêmes associés à la lithiase rénale. Différentes études illustrent la prévalence croissante des calculs rénaux. Des études scandinaves datant de 1970-1980 démontrent que 19% des hommes de plus de 60 ans avaient des antécédents de lithiase urinaire. Aux États-Unis, l'étude de Stamatelou et al. (1) a démontré une progression de la lithiase rénale de 3.2% entre 1976 et 1980 et de 5.2% entre 1988 et 1994. En Allemagne, la prévalence de la lithiase rénale a augmenté de 17% entre 1980 et 2000. En 2001 en Espagne, 10% des sujets de plus de 60 ans avaient une lithiase rénale. L'étude française SU.VI.MAX a notamment révélé une prévalence de calculs rénaux de 9.5% chez les personnes de plus de 45 ans avec une prédominance masculine, 13.6% chez les hommes et 7.6% chez les femmes. Le rapport hommes/femmes était de 2.35 avec une tendance à la baisse. L'âge du premier calcul était en moyenne à 35 ans chez les hommes et à 30 ans chez les femmes. Plus de la moitié des patients lithiasiques de l'étude SU.VI.MAX récidivent au cours de leur vie, 54% des hommes et 52% des femmes. Le nombre d'épisodes dans la vie d'une personne ayant eu une fois un calcul rénal était en moyenne de 3, avec un intervalle moyen de 3.5 ans entre deux récidives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse examine la circulation et l'intégration des informations scientifiques dans la pensée quotidienne d'après la théorie des représentations sociales (TRS). En tant qu'alternative aux approches traditionnelles de la communication de la science, les transformations survenant entre le discours scientifique et le discours de sens commun sont considérées comme adaptatives. Deux études sur la circulation des informations dans les media (études 1 et 2) montrent des variations dans les thèmes de discours exposés aux profanes, et parmi les discours de ceux-ci, en fonction de différentes sources. Ensuite, le processus d'ancrage dans le positionnement préalable envers la science est étudié, pour l'explication qu'il fournit de la réception et de la transmission d'informations scientifiques dans le sens commun. Les effets d'ancrage dans les attitudes et croyances préexistants sont reportés dans différents contextes de circulation des informations scientifiques (études 3 à 7), incluant des études de type corrélationnel, experimental et de terrain. Globalement, cette thèse procure des arguments en faveur de la pertinence de la TRS pour la recherche sur la communication de la science, et suggère des développements théoriques et méthodologiques pour ces deux domaines de recherche. Drawing on the social representations theory (SRT), this thesis examines the circulation and integration of scientific information into everyday thinking. As an alternative to the traditional approaches of science communication, it considers transformations between scientific and common-sense discourses as adaptive. Two studies, focused on the spreading of information into the media (Studies 1 and 2), show variations in the themes of discourses introduced to laypersons and in the themes among laypersons' discourses, according to different sources. Anchoring in prior positioning toward science is then studied for the explanation it provides on the reception and transmission of scientific information into common sense. Anchoring effects in prior attitudes and beliefs are reported in different contexts of circulation of scientific information (Studies 3 to 7) by using results from correlational, field, and experimental studies. Overall, this thesis provides arguments for the relevance of SRT in science communication research and suggests theoretical and methodological developments for both domains of research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction 1.1 Le sujet cérébral, rencontre entre le biologique et le social L'objectif de ce travail est d'éclairer une des voies par lesquelles le phénomène anthropologique de l'individualité prend corps au sein de l'environnement contemporain. L'individualisme est compris comme les divers processus par lesquels la détermination du sujet tend à s'autonomiser des appartenances préconstituées. Il est la forme sociologique qui gouverne la façon contemporaine de faire société depuis l'avènement de la «modernité ». Le choix de l'angle de la cérébralité pour aborder la question de recherche repose sur le postulat qu'une des particularités culturelles de la figure du sujet individuel contemporain est la tendance à attribuer aux mécanismes cérébraux le rôle déterminant dans la constitution de la subjectivité du sujet. Dès lors, si aujourd'hui, penser le cerveau c'est penser l'humain, il s'agit d'un phénomène anthropologique qui demande à être explicité. Il m'appartient de démontrer que le champ des neurosciences se profile comme révélateur privilégié pour observer comment penser l'individualité concorde avec l'établissement de vérités relatives au cérébral' . Faire l'anthropologie du proche et de l'actuel a ses intérêts mais comporte aussi des risques. La perte de ce qui faisait le moteur de la recherche anthropologique -l'altérité donnée des sujets de son observation - a été compensée par l'émergence de nouveaux objets de travail et par des reconfigurations des rapports que l'anthropologue entretient avec son terrain. Le renouvellement du cadre de réflexion opéré par l'anthropologie au cours du siècle écoulé suit les transformations des pratiques sociales, culturelles et économiques qui s'opèrent au niveau mondial. L'échelle désormais planétaire de la circulation des acteurs sociaux et des objets de savoir a forcé la discipline à revoir la grille de lecture qui a longtemps opposé sociétés traditionnelles à sociétés modernes. La prise de conscience de la caducité du grand partage a engagé les anthropologues à s'intéresser à des phénomènes en rapport avec des problèmes rencontrés au sein de leur propre collectif et, dans le même mouvement, les a amenée à repenser les articulations entre le global et le local, le particulier et l'universel. Le bouleversement heuristique généré par ce repositionnement n'est toutefois pas exempt de nouvelles difficultés pour la recherche ethnographique. En se posant le défi d'étudier des traits culturels propres à sa société d'appartenance, l'anthropologie s'ouvre à des terrains enquête sur la façon dont, dans le monde occidental, le constat toujours plus pesant de la discordance entre les phénomènes de vieillissement cognitif et l'allongement de l'espérance de vie est traité. Dans une démarche ethnographique, il s'agit de voir quelles sont les logiques d'action et les pratiques sociales développées en réponse à ces inadéquations. La thématique impose une navigation entre des domaines théoriques spécialisés et des champs d'activités possédant chacun leurs cadres de référence. Une telle entreprise suppose une multiplication des systèmes de référence devant être pris en compte. Toutes les disciplines approchées au cours de ce travail abondent en métaphores utiles à la mise en ordre de leur pensée et à la description de leurs objets de travail. Toutefois, faire résonner entre elles les différentes «cultures épistémiques » (Knorr-Cetina, 1999) pour mieux faire apparaître la trame sociale qui constitue leur arrière-fond équivaut souvent à forcer le trait. Le sens des mots varie selon leurs champs d'application et l'exercice de la mise en résonance peut s'avérer périlleux. Je me suis efforcée tout au long de ces pages de préciser de quel point de vue les énoncés considérés sont formulés. L'analyse anthropologique étant guidée par la recherche des points de liaison entre les différents registres, la démarche est forcément limitée dans le niveau d'approfondissement auquel elle peut tendre. Elle risque de décevoir les lecteurs experts dans les domaines soumis à la grille de lecture de cette discipline, non familiers avec les concepts anthropologiques. Il est probable qu'un certain flou subsiste dans la façon dont ces énoncés sont décris par rapport au traitement dont ils sont l'objet dans leurs disciplines respectives. Si on perd de vue la préoccupation centrale de l'anthropologie, consistant à éclairer le système de valeurs commun sous-tendant les pratiques sociales observées, la lecture d'un tel travail risque effectivement de rater son but. En revanche, en acceptant d'emblée de se prêter à un décentrement par rapport à son modèle disciplinaire, le lecteur doit pouvoir appréhender des aspects intéressant ses propres pratiques. S'intéresser à ce qui relie les savoirs et les pratiques au sein d'un monde commun, voilà un programme heuristique qui va à l'encontre de la logique de spécialisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary: Lipophilicity plays an important role in the determination and the comprehension of the pharmacokinetic behavior of drugs. It is usually expressed by the partition coefficient (log P) in the n-octanol/water system. The use of an additional solvent system (1,2-dichlorethane/water) is necessary to obtain complementary information, as the log Poct values alone are not sufficient to explain ail biological properties. The aim of this thesis is to develop tools allowing to predict lipophilicity of new drugs and to analyze the information yielded by those log P values. Part I presents the development of theoretical models used to predict lipophilicity. Chapter 2 shows the necessity to extend the existing solvatochromic analyses in order to predict correctly the lipophilicity of new and complex neutral compounds. In Chapter 3, solvatochromic analyses are used to develop a model for the prediction of the lipophilicity of ions. A global model was obtained allowing to estimate the lipophilicity of neutral, anionic and cationic solutes. Part II presents the detailed study of two physicochemical filters. Chapter 4 shows that the Discovery RP Amide C16 stationary phase allows to estimate lipophilicity of the neutral form of basic and acidic solutes, except of lipophilic acidic solutes. Those solutes present additional interactions with this particular stationary phase. In Chapter 5, 4 different IANI stationary phases are investigated. For neutral solutes, linear data are obtained whatever the IANI column used. For the ionized solutes, their retention is due to a balance of electrostatic and hydrophobie interactions. Thus no discrimination is observed between different series of solutes bearing the same charge, from one column to an other. Part III presents two examples illustrating the information obtained thanks to Structure-Properties Relationships (SPR). Comparing graphically lipophilicity values obtained in two different solvent systems allows to reveal the presence of intramolecular effects .such as internai H-bond (Chapter 6). SPR is used to study the partitioning of ionizable groups encountered in Medicinal Chemistry (Chapter7). Résumé La lipophilie joue un .rôle important dans la détermination et la compréhension du comportement pharmacocinétique des médicaments. Elle est généralement exprimée par le coefficient de partage (log P) d'un composé dans le système de solvants n-octanol/eau. L'utilisation d'un deuxième système de solvants (1,2-dichloroéthane/eau) s'est avérée nécessaire afin d'obtenir des informations complémentaires, les valeurs de log Poct seules n'étant pas suffisantes pour expliquer toutes les propriétés biologiques. Le but de cette thèse est de développer des outils permettant de prédire la lipophilie de nouveaux candidats médicaments et d'analyser l'information fournie par les valeurs de log P. La Partie I présente le développement de modèles théoriques utilisés pour prédire la lipophilie. Le chapitre 2 montre la nécessité de mettre à jour les analyses solvatochromiques existantes mais inadaptées à la prédiction de la lipophilie de nouveaux composés neutres. Dans le chapitre 3, la même méthodologie des analyses solvatochromiques est utilisée pour développer un modèle permettant de prédire la lipophilie des ions. Le modèle global obtenu permet la prédiction de la lipophilie de composés neutres, anioniques et cationiques. La Partie II présente l'étude approfondie de deux filtres physicochimiques. Le Chapitre 4 montre que la phase stationnaire Discovery RP Amide C16 permet la détermination de la lipophilie de la forme neutre de composés basiques et acides, à l'exception des acides très lipophiles. Ces derniers présentent des interactions supplémentaires avec cette phase stationnaire. Dans le Chapitre 5, 4 phases stationnaires IAM sont étudiées. Pour les composés neutres étudiés, des valeurs de rétention linéaires sont obtenues, quelque que soit la colonne IAM utilisée. Pour les composés ionisables, leur rétention est due à une balance entre des interactions électrostatiques et hydrophobes. Donc aucune discrimination n'est observée entre les différentes séries de composés portant la même charge d'une colonne à l'autre. La Partie III présente deux exemples illustrant les informations obtenues par l'utilisation des relations structures-propriétés. Comparer graphiquement la lipophilie mesurée dans deux différents systèmes de solvants permet de mettre en évidence la présence d'effets intramoléculaires tels que les liaisons hydrogène intramoléculaires (Chapitre 6). Cette approche des relations structures-propriétés est aussi appliquée à l'étude du partage de fonctions ionisables rencontrées en Chimie Thérapeutique (Chapitre 7) Résumé large public Pour exercer son effet thérapeutique, un médicament doit atteindre son site d'action en quantité suffisante. La quantité effective de médicament atteignant le site d'action dépend du nombre d'interactions entre le médicament et de nombreux constituants de l'organisme comme, par exemple, les enzymes du métabolisme ou les membranes biologiques. Le passage du médicament à travers ces membranes, appelé perméation, est un paramètre important à optimiser pour développer des médicaments plus puissants. La lipophilie joue un rôle clé dans la compréhension de la perméation passive des médicaments. La lipophilie est généralement exprimée par le coefficient de partage (log P) dans le système de solvants (non miscibles) n-octanol/eau. Les valeurs de log Poct seules se sont avérées insuffisantes pour expliquer la perméation à travers toutes les différentes membranes biologiques du corps humain. L'utilisation d'un système de solvants additionnel (le système 1,2-dichloroéthane/eau) a permis d'obtenir les informations complémentaires indispensables à une bonne compréhension du processus de perméation. Un grand nombre d'outils expérimentaux et théoriques sont à disposition pour étudier la lipophilie. Ce travail de thèse se focalise principalement sur le développement ou l'amélioration de certains de ces outils pour permettre leur application à un champ plus large de composés. Voici une brève description de deux de ces outils: 1)La factorisation de la lipophilie en fonction de certaines propriétés structurelles (telle que le volume) propres aux composés permet de développer des modèles théoriques utilisables pour la prédiction de la lipophilie de nouveaux composés ou médicaments. Cette approche est appliquée à l'analyse de la lipophilie de composés neutres ainsi qu'à la lipophilie de composés chargés. 2)La chromatographie liquide à haute pression sur phase inverse (RP-HPLC) est une méthode couramment utilisée pour la détermination expérimentale des valeurs de log Poct.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Since 1895, when X-rays were discovered, ionizing radiation became part of our life. Its use in medicine has brought significant health benefits to the population globally. The benefit of any diagnostic procedure is to reduce the uncertainty about the patient's health. However, there are potential detrimental effects of radiation exposure. Therefore, radiation protection authorities have become strict regarding the control of radiation risks.¦There are various situations where the radiation risk needs to be evaluated. International authority bodies point to the increasing number of radiologic procedures and recommend population surveys. These surveys provide valuable data to public health authorities which helps them to prioritize and focus on patient groups in the population that are most highly exposed. On the other hand, physicians need to be aware of radiation risks from diagnostic procedures in order to justify and optimize the procedure and inform the patient.¦The aim of this work was to examine the different aspects of radiation protection and investigate a new method to estimate patient radiation risks.¦The first part of this work concerned radiation risk assessment from the regulatory authority point of view. To do so, a population dose survey was performed to evaluate the annual population exposure. This survey determined the contribution of different imaging modalities to the total collective dose as well as the annual effective dose per caput. It was revealed that although interventional procedures are not so frequent, they significantly contribute to the collective dose. Among the main results of this work, it was shown that interventional cardiological procedures are dose-intensive and therefore more attention should be paid to optimize the exposure.¦The second part of the project was related to the patient and physician oriented risk assessment. In this part, interventional cardiology procedures were studied by means of Monte Carlo simulations. The organ radiation doses as well as effective doses were estimated. Cancer incidence risks for different organs were calculated for different sex and age-at-exposure using the lifetime attributable risks provided by the Biological Effects of Ionizing Radiations Report VII. Advantages and disadvantages of the latter results were examined as an alternative method to estimate radiation risks. The results show that this method is the most accurate, currently available, to estimate radiation risks. The conclusions of this work may guide future studies in the field of radiation protection in medicine.¦-¦Depuis la découverte des rayons X en 1895, ce type de rayonnement a joué un rôle important dans de nombreux domaines. Son utilisation en médecine a bénéficié à la population mondiale puisque l'avantage d'un examen diagnostique est de réduire les incertitudes sur l'état de santé du patient. Cependant, leur utilisation peut conduire à l'apparition de cancers radio-induits. Par conséquent, les autorités sanitaires sont strictes quant au contrôle du risque radiologique.¦Le risque lié aux radiations doit être estimé dans différentes situations pratiques, dont l'utilisation médicale des rayons X. Les autorités internationales de radioprotection indiquent que le nombre d'examens et de procédures radiologiques augmente et elles recommandent des enquêtes visant à déterminer les doses de radiation délivrées à la population. Ces enquêtes assurent que les groupes de patients les plus à risque soient prioritaires. D'un autre côté, les médecins ont également besoin de connaître le risque lié aux radiations afin de justifier et optimiser les procédures et informer les patients.¦Le présent travail a pour objectif d'examiner les différents aspects de la radioprotection et de proposer une manière efficace pour estimer le risque radiologique au patient.¦Premièrement, le risque a été évalué du point de vue des autorités sanitaires. Une enquête nationale a été réalisée pour déterminer la contribution des différentes modalités radiologiques et des divers types d'examens à la dose efficace collective due à l'application médicale des rayons X. Bien que les procédures interventionnelles soient rares, elles contribuent de façon significative à la dose délivrée à la population. Parmi les principaux résultats de ce travail, il a été montré que les procédures de cardiologie interventionnelle délivrent des doses élevées et devraient donc être optimisées en priorité.¦La seconde approche concerne l'évaluation du risque du point de vue du patient et du médecin. Dans cette partie, des procédures interventionnelles cardiaques ont été étudiées au moyen de simulations Monte Carlo. La dose délivrée aux organes ainsi que la dose efficace ont été estimées. Les risques de développer des cancers dans plusieurs organes ont été calculés en fonction du sexe et de l'âge en utilisant la méthode établie dans Biological Effects of Ionizing Radiations Report VII. Les avantages et inconvénients de cette nouvelle technique ont été examinés et comparés à ceux de la dose efficace. Les résultats ont montré que cette méthode est la plus précise actuellement disponible pour estimer le risque lié aux radiations. Les conclusions de ce travail pourront guider de futures études dans le domaine de la radioprotection en médicine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé de la thèse L'évolution des systèmes policiers donne une place prépondérante à l'information et au renseignement. Cette transformation implique de développer et de maintenir un ensemble de processus permanent d'analyse de la criminalité, en particulier pour traiter des événements répétitifs ou graves. Dans une organisation aux ressources limitées, le temps consacré au recueil des données, à leur codification et intégration, diminue le temps disponible pour l'analyse et la diffusion de renseignements. Les phases de collecte et d'intégration restent néanmoins indispensables, l'analyse n'étant pas possible sur des données volumineuses n'ayant aucune structure. Jusqu'à présent, ces problématiques d'analyse ont été abordées par des approches essentiellement spécialisées (calculs de hot-sports, data mining, ...) ou dirigées par un seul axe (par exemple, les sciences comportementales). Cette recherche s'inscrit sous un angle différent, une démarche interdisciplinaire a été adoptée. L'augmentation continuelle de la quantité de données à analyser tend à diminuer la capacité d'analyse des informations à disposition. Un bon découpage (classification) des problèmes rencontrés permet de délimiter les analyses sur des données pertinentes. Ces classes sont essentielles pour structurer la mémoire du système d'analyse. Les statistiques policières de la criminalité devraient déjà avoir répondu à ces questions de découpage de la délinquance (classification juridique). Cette décomposition a été comparée aux besoins d'un système de suivi permanent dans la criminalité. La recherche confirme que nos efforts pour comprendre la nature et la répartition du crime se butent à un obstacle, à savoir que la définition juridique des formes de criminalité n'est pas adaptée à son analyse, à son étude. Depuis près de vingt ans, les corps de police de Suisse romande utilisent et développent un système de classification basé sur l'expérience policière (découpage par phénomène). Cette recherche propose d'interpréter ce système dans le cadre des approches situationnelles (approche théorique) et de le confronter aux données « statistiques » disponibles pour vérifier sa capacité à distinguer les formes de criminalité. La recherche se limite aux cambriolages d'habitations, un délit répétitif fréquent. La théorie des opportunités soutien qu'il faut réunir dans le temps et dans l'espace au minimum les trois facteurs suivants : un délinquant potentiel, une cible intéressante et l'absence de gardien capable de prévenir ou d'empêcher le passage à l'acte. Ainsi, le délit n'est possible que dans certaines circonstances, c'est-à-dire dans un contexte bien précis. Identifier ces contextes permet catégoriser la criminalité. Chaque cas est unique, mais un groupe de cas montre des similitudes. Par exemple, certaines conditions avec certains environnements attirent certains types de cambrioleurs. Deux hypothèses ont été testées. La première est que les cambriolages d'habitations ne se répartissent pas uniformément dans les classes formées par des « paramètres situationnels » ; la deuxième que des niches apparaissent en recoupant les différents paramètres et qu'elles correspondent à la classification mise en place par la coordination judiciaire vaudoise et le CICOP. La base de données vaudoise des cambriolages enregistrés entre 1997 et 2006 par la police a été utilisée (25'369 cas). Des situations spécifiques ont été mises en évidence, elles correspondent aux classes définies empiriquement. Dans une deuxième phase, le lien entre une situation spécifique et d'activité d'un auteur au sein d'une même situation a été vérifié. Les observations réalisées dans cette recherche indiquent que les auteurs de cambriolages sont actifs dans des niches. Plusieurs auteurs sériels ont commis des délits qui ne sont pas dans leur niche, mais le nombre de ces infractions est faible par rapport au nombre de cas commis dans la niche. Un système de classification qui correspond à des réalités criminelles permet de décomposer les événements et de mettre en place un système d'alerte et de suivi « intelligent ». Une nouvelle série dans un phénomène sera détectée par une augmentation du nombre de cas de ce phénomène, en particulier dans une région et à une période donnée. Cette nouvelle série, mélangée parmi l'ensemble des délits, ne serait pas forcément détectable, en particulier si elle se déplace. Finalement, la coopération entre les structures de renseignement criminel opérationnel en Suisse romande a été améliorée par le développement d'une plateforme d'information commune et le système de classification y a été entièrement intégré.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RésuméIntroduction : Le travail de thèse est un article publié dans le journal « Fertility & Sterility » s'intitulant « Birth records from Swiss married couples analyzed over the past 35 years reveal an aging of first-time mothers by 5.1 years while the interpregnancy interval has shortened ».Méthodes : Les données concernant l'âge auquel les femmes mariées donnaient naissance ont été obtenues de l'Office fédéral de la statistique. Nous avons examiné la période allant de 1969 à 2006. Cet intervalle de temps choisi nous a permis de prendre en considération un total de 2'716'370 naissances. L'âge moyen des parturientes à la naissance de leur 1er, 2ème et 3ème enfant a été calculé pour chaque année à l'aide du logiciel Excel. Grâce à ces données on a pu obtenir les intervalles inter-gestationnels théoriques entre le 1er et 2ème enfant, ainsi qu'entre le 2ème et 3ème enfant.Résultats : Nous pouvons constater que l'intervalle inter-gestationnel théorique entre la première et la deuxième grossesse était de 23.2 mois en 1969 et passait à 13.0 mois en 2006. L'intervalle compris entre la deuxième et la troisième grossesse passait de 22.4 mois en 1969 à 7.9 mois en 2006. Notre analyse suggère donc que c'est le facteur social qui exerce un effet plus important que le facteur biologique sur les intervalles inter-gestationnels, car ces intervalles diminuaient malgré l'augmentation de l'âge des mères à la naissance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les auteurs présentent un survolde la recherche pluridisciplinaire sur la grande vieillesse, avec ses tâtonnements, ses élaborations théoriques et ses principaux acquis. Ce domaine de recherche s'est constituté très récemment, dans la seconde moitié des années 1980, avec la prise de conscience de certaines implicaitons de la longévité croissante, en particulier de la forte poussée démographique de la population très âgée. L'"agenda" initial de la recherche focalisait essentiellement les pathologies du grand âge et leurs implications en termes de politique de la vieillesse et de coûts de la santé. Au fil des années, la perspective s'est élargieet enrichie, l'intérêt se tournant également vers le vieillard "robuste", l'interrogation portant sur les différentes formes et trajectoires de vieillissement. Après un quart de siècle, la "géographie" de la grande vieillesse comme l'étude de l'organisation de son déroulement sont assez bien blisés; la description est solide, mais l'explicaiton demeure balbutiante. Une psite d'avenir pourrait résider dans un examen des trajectoires de vie des vieillards basé sur l'analyse combinée de données génétiques et d'informations biographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail examine les nouveaux objectifs et critères de qualité définis dans le processus de Bologne - et essentiels à sa réalisation - sous l'angle du plurilinguisme. Il s'interroge d'une part sur le rôle du plurilinguisme pour l'ensemble des disciplines dans le contexte d'internationalisation engendré par la création de l'Espace européen d'enseignement supérieur (EEES), et de l'autre sur ce que ces nouvelles exigences signifient en termes de compétences spécifiques à développer à travers les formations en langues universitaires. L'application des critères de Bologne et l'internationalisation qui s'ensuit renforcent l'importance fondamentale du plurilinguisme pour l'ensemble des disciplines, et fait du développement du plurilinguisme dans tous les cursus un facteur de réussite de ce processus. En effet, il s'agit d'une compétence transversale clé pour répondre aux nouveaux défis sociaux, économiques et académiques. Par ailleurs, cette application implique une réorientation substantielle dans les formations en langues universitaires elles-mêmes par rapport aux pratiques actuelles. Des innovations majeures s'imposent quant aux acquis de formation visés. Les nouveaux profils plurilingues et pluriculturels à développer doivent être plus larges et différents, dans la mesure où ils exigent une contextualisation accrue par rapport aux situations d'utilisation auxquelles sont confrontés les étudiants et diplômés dans un monde globalisé multilingue et multiculturel. Dans ce contexte, il s'agit plus particulièrement de contextualiser et de spécifier, en rapport avec le contexte universitaire actuel, un modèle transsectoriel existant, le Cadre européen commun de référence pour les langues (CECRL) du Conseil de l'Europe. Dans cette optique, cette thèse a comme objectif principal d'identifier et de fonder des points de référence spécifiques au domaine des langues et au contexte universitaire européen actuel, qui puissent être constitutifs d'un futur cadre européen commun de référence pour les langues dans l'EEES. Ces points de repère tiennent compte aussi bien des nouveaux besoins et exigences nés du processus de Bologne, que des principes de la politique éducative européenne ainsi que du contexte sociopolitique et économique spécifique, en transformation rapide, qui est à l'origine de la réforme actuelle. De plus, ils incluent les concepts théoriques en relation avec le plurilinguisme que ce travail cherche à contextualiser par diverses analyses et des recherches empiriques afin de spécifier des compétences plurilingues et pluriculturelles génériques pertinentes au secteur universitaire en relation avec les besoins professionnels et académiques. Cette thèse vise à soutenir des stratégies d'application et tente d'instaurer une nouvelle manière d'envisager le lien entre les fondements théoriques et la recherche, la politique éducative européenne et la pratique institutionnelle, pour favoriser le développement d'une compétence plurilingue adéquate des étudiants. Dans ce but elle propose, à partir de points de référence définis au préalable, des outils qui ont pour objectif aussi bien de favoriser une meilleure compréhension des enjeux du plurilinguisme dans Bologne. Elle veut donner un appui systématique et scientifiquement fondé à un processus de prise de conscience et de réflexion nécessaire pour garantir une mise en oeuvre informée des changements requis. Ceci concerne plus particulièrement les choix relatifs aux acquis de formation appropriés, la nature des compétences plurilingues et pluriculturelles à développer dans différentes disciplines linguistiques et non linguistiques, ainsi que les profils à spécifier qui s'articulent aussi bien autour des points de référence européens - eux-mêmes dynamiques et évolutifs grâce à une interaction continue entre théorie et pratique - qu'autour d'une situation locale spécifique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary (in English) Computer simulations provide a practical way to address scientific questions that would be otherwise intractable. In evolutionary biology, and in population genetics in particular, the investigation of evolutionary processes frequently involves the implementation of complex models, making simulations a particularly valuable tool in the area. In this thesis work, I explored three questions involving the geographical range expansion of populations, taking advantage of spatially explicit simulations coupled with approximate Bayesian computation. First, the neutral evolutionary history of the human spread around the world was investigated, leading to a surprisingly simple model: A straightforward diffusion process of migrations from east Africa throughout a world map with homogeneous landmasses replicated to very large extent the complex patterns observed in real human populations, suggesting a more continuous (as opposed to structured) view of the distribution of modern human genetic diversity, which may play a better role as a base model for further studies. Second, the postglacial evolution of the European barn owl, with the formation of a remarkable coat-color cline, was inspected with two rounds of simulations: (i) determine the demographic background history and (ii) test the probability of a phenotypic cline, like the one observed in the natural populations, to appear without natural selection. We verified that the modern barn owl population originated from a single Iberian refugium and that they formed their color cline, not due to neutral evolution, but with the necessary participation of selection. The third and last part of this thesis refers to a simulation-only study inspired by the barn owl case above. In this chapter, we showed that selection is, indeed, effective during range expansions and that it leaves a distinguished signature, which can then be used to detect and measure natural selection in range-expanding populations. Résumé (en français) Les simulations fournissent un moyen pratique pour répondre à des questions scientifiques qui seraient inabordable autrement. En génétique des populations, l'étude des processus évolutifs implique souvent la mise en oeuvre de modèles complexes, et les simulations sont un outil particulièrement précieux dans ce domaine. Dans cette thèse, j'ai exploré trois questions en utilisant des simulations spatialement explicites dans un cadre de calculs Bayésiens approximés (approximate Bayesian computation : ABC). Tout d'abord, l'histoire de la colonisation humaine mondiale et de l'évolution de parties neutres du génome a été étudiée grâce à un modèle étonnement simple. Un processus de diffusion des migrants de l'Afrique orientale à travers un monde avec des masses terrestres homogènes a reproduit, dans une très large mesure, les signatures génétiques complexes observées dans les populations humaines réelles. Un tel modèle continu (opposé à un modèle structuré en populations) pourrait être très utile comme modèle de base dans l'étude de génétique humaine à l'avenir. Deuxièmement, l'évolution postglaciaire d'un gradient de couleur chez l'Effraie des clocher (Tyto alba) Européenne, a été examiné avec deux séries de simulations pour : (i) déterminer l'histoire démographique de base et (ii) tester la probabilité qu'un gradient phénotypique, tel qu'observé dans les populations naturelles puisse apparaître sans sélection naturelle. Nous avons montré que la population actuelle des chouettes est sortie d'un unique refuge ibérique et que le gradient de couleur ne peux pas s'être formé de manière neutre (sans l'action de la sélection naturelle). La troisième partie de cette thèse se réfère à une étude par simulations inspirée par l'étude de l'Effraie. Dans ce dernier chapitre, nous avons montré que la sélection est, en effet, aussi efficace dans les cas d'expansion d'aire de distribution et qu'elle laisse une signature unique, qui peut être utilisée pour la détecter et estimer sa force.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail décrit les opérations théoriques et pratiques concernant le transcodage des opérations d'une part, des diagnostics d'autre part; il décrit également le programme informatique de transcodage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse Introduction : Le Glasgow coma score (GCS) est un outil reconnu permettant l'évaluation des patients après avoir subi un traumatisme crânien. Il est réputé pour sa simplicité et sa reproductibilité permettant ainsi aux soignants une évaluation appropriée et continue du status neurologique des patients. Le GCS est composé de trois catégories évaluant la réponse oculaire, verbale et motrice. En Suisse, les soins préhospitaliers aux patients victimes d'un trauma crânien sévère sont effectués par des médecins, essdntiellement à bord des hélicoptères médicalisés. Avant une anesthésie générale nécessaire à ces patients, une évaluation du GCS est essentielle indiquant au personnel hospitalier la gravité des lésions cérébrales. Afin d'évaluer la connaissance du GCS par les médecins à bord des hélicoptères médicalisés en Suisse, nous avons élaboré un questionnaire, contenant dans une première partie des questions sur les connaissances générales du GCS suivi d'un cas clinique. Objectif : Evaluation des connaissances pratiques et théoriques du GCS par les médecins travaillant à bord des hélicoptères médicalisés en Suisse. Méthode : Etude observationnelle prospective et anonymisée à l'aide d'un questionnaire. Evaluation des connaissances générales du GCS et de son utilisation clinique lors de la présentation d'un cas. Résultats : 16 des 18 bases d'hélicoptères médicalisés suisses ont participé à notre étude. 130 questionnaires ont été envoyés et le taux de réponse a été de 79.2%. Les connaissances théoriques du GCS étaient comparables pour tous les médecins indépendamment de leur niveau de formation. Des erreurs dans l'appréciation du cas clinique étaient présentes chez 36.9% des participants. 27.2% ont commis des erreurs dans le score moteur et 18.5% dans le score verbal. Les erreurs ont été répertoriées le plus fréquemment chez les médecins assistants (47.5%, p=0.09), suivi par les chefs de clinique (31.6%, p=0.67) et les médecins installés en cabinet (18.4%, p=1.00). Les médecins cadres ont fait significativement moins d'erreurs que les autres participants (0%, p<0.05). Aucune différence significative n'à été observée entre les différentes spécialités (anesthésie, médecine interne, médecine général et «autres »). Conclusion Même si les connaissances théoriques du GCS sont adéquates parmi les médecins travaillant à bord des hélicoptères médicalisés, des erreurs dans son application clinique sont présentes dans plus d'un tiers des cas. Les médecins avec le moins d'expériences professionnelle font le plus d'erreurs. Au vu de l'importance de l'évaluation correcte du score de Glasgow initial, une amélioration des connaissances est indispensable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis focuses on theoretical asset pricing models and their empirical applications. I aim to investigate the following noteworthy problems: i) if the relationship between asset prices and investors' propensities to gamble and to fear disaster is time varying, ii) if the conflicting evidence for the firm and market level skewness can be explained by downside risk, Hi) if costly learning drives liquidity risk. Moreover, empirical tests support the above assumptions and provide novel findings in asset pricing, investment decisions, and firms' funding liquidity. The first chapter considers a partial equilibrium model where investors have heterogeneous propensities to gamble and fear disaster. Skewness preference represents the desire to gamble, while kurtosis aversion represents fear of extreme returns. Using US data from 1988 to 2012, my model demonstrates that in bad times, risk aversion is higher, more people fear disaster, and fewer people gamble, in contrast to good times. This leads to a new empirical finding: gambling preference has a greater impact on asset prices during market downturns than during booms. The second chapter consists of two essays. The first essay introduces a foramula based on conditional CAPM for decomposing the market skewness. We find that the major market upward and downward movements can be well preadicted by the asymmetric comovement of betas, which is characterized by an indicator called "Systematic Downside Risk" (SDR). We find that SDR can efafectively forecast future stock market movements and we obtain out-of-sample R-squares (compared with a strategy using historical mean) of more than 2.27% with monthly data. The second essay reconciles a well-known empirical fact: aggregating positively skewed firm returns leads to negatively skewed market return. We reconcile this fact through firms' greater response to negative maraket news than positive market news. We also propose several market return predictors, such as downside idiosyncratic skewness. The third chapter studies the funding liquidity risk based on a general equialibrium model which features two agents: one entrepreneur and one external investor. Only the investor needs to acquire information to estimate the unobservable fundamentals driving the economic outputs. The novelty is that information acquisition is more costly in bad times than in good times, i.e. counter-cyclical information cost, as supported by previous empirical evidence. Later we show that liquidity risks are principally driven by costly learning. Résumé Cette thèse présente des modèles théoriques dévaluation des actifs et leurs applications empiriques. Mon objectif est d'étudier les problèmes suivants: la relation entre l'évaluation des actifs et les tendances des investisseurs à parier et à crainadre le désastre varie selon le temps ; les indications contraires pour l'entreprise et l'asymétrie des niveaux de marché peuvent être expliquées par les risques de perte en cas de baisse; l'apprentissage coûteux augmente le risque de liquidité. En outre, des tests empiriques confirment les suppositions ci-dessus et fournissent de nouvelles découvertes en ce qui concerne l'évaluation des actifs, les décisions relatives aux investissements et la liquidité de financement des entreprises. Le premier chapitre examine un modèle d'équilibre où les investisseurs ont des tendances hétérogènes à parier et à craindre le désastre. La préférence asymétrique représente le désir de parier, alors que le kurtosis d'aversion représente la crainte du désastre. En utilisant les données des Etats-Unis de 1988 à 2012, mon modèle démontre que dans les mauvaises périodes, l'aversion du risque est plus grande, plus de gens craignent le désastre et moins de gens parient, conatrairement aux bonnes périodes. Ceci mène à une nouvelle découverte empirique: la préférence relative au pari a un plus grand impact sur les évaluations des actifs durant les ralentissements de marché que durant les booms économiques. Exploitant uniquement cette relation générera un revenu excédentaire annuel de 7,74% qui n'est pas expliqué par les modèles factoriels populaires. Le second chapitre comprend deux essais. Le premier essai introduit une foramule base sur le CAPM conditionnel pour décomposer l'asymétrie du marché. Nous avons découvert que les mouvements de hausses et de baisses majeures du marché peuvent être prédits par les mouvements communs des bêtas. Un inadicateur appelé Systematic Downside Risk, SDR (risque de ralentissement systématique) est créé pour caractériser cette asymétrie dans les mouvements communs des bêtas. Nous avons découvert que le risque de ralentissement systématique peut prévoir les prochains mouvements des marchés boursiers de manière efficace, et nous obtenons des carrés R hors échantillon (comparés avec une stratégie utilisant des moyens historiques) de plus de 2,272% avec des données mensuelles. Un investisseur qui évalue le marché en utilisant le risque de ralentissement systématique aurait obtenu une forte hausse du ratio de 0,206. Le second essai fait cadrer un fait empirique bien connu dans l'asymétrie des niveaux de march et d'entreprise, le total des revenus des entreprises positiveament asymétriques conduit à un revenu de marché négativement asymétrique. Nous décomposons l'asymétrie des revenus du marché au niveau de l'entreprise et faisons cadrer ce fait par une plus grande réaction des entreprises aux nouvelles négatives du marché qu'aux nouvelles positives du marché. Cette décomposition révélé plusieurs variables de revenus de marché efficaces tels que l'asymétrie caractéristique pondérée par la volatilité ainsi que l'asymétrie caractéristique de ralentissement. Le troisième chapitre fournit une nouvelle base théorique pour les problèmes de liquidité qui varient selon le temps au sein d'un environnement de marché incomplet. Nous proposons un modèle d'équilibre général avec deux agents: un entrepreneur et un investisseur externe. Seul l'investisseur a besoin de connaitre le véritable état de l'entreprise, par conséquent, les informations de paiement coutent de l'argent. La nouveauté est que l'acquisition de l'information coute plus cher durant les mauvaises périodes que durant les bonnes périodes, comme cela a été confirmé par de précédentes expériences. Lorsque la récession comamence, l'apprentissage coûteux fait augmenter les primes de liquidité causant un problème d'évaporation de liquidité, comme cela a été aussi confirmé par de précédentes expériences.