196 resultados para Événements
Resumo:
Characterizing the geological features and structures in three dimensions over inaccessible rock cliffs is needed to assess natural hazards such as rockfalls and rockslides and also to perform investigations aimed at mapping geological contacts and building stratigraphy and fold models. Indeed, the detailed 3D data, such as LiDAR point clouds, allow to study accurately the hazard processes and the structure of geologic features, in particular in vertical and overhanging rock slopes. Thus, 3D geological models have a great potential of being applied to a wide range of geological investigations both in research and applied geology projects, such as mines, tunnels and reservoirs. Recent development of ground-based remote sensing techniques (LiDAR, photogrammetry and multispectral / hyperspectral images) are revolutionizing the acquisition of morphological and geological information. As a consequence, there is a great potential for improving the modeling of geological bodies as well as failure mechanisms and stability conditions by integrating detailed remote data. During the past ten years several large rockfall events occurred along important transportation corridors where millions of people travel every year (Switzerland: Gotthard motorway and railway; Canada: Sea to sky highway between Vancouver and Whistler). These events show that there is still a lack of knowledge concerning the detection of potential rockfalls, making mountain residential settlements and roads highly risky. It is necessary to understand the main factors that destabilize rocky outcrops even if inventories are lacking and if no clear morphological evidences of rockfall activity are observed. In order to increase the possibilities of forecasting potential future landslides, it is crucial to understand the evolution of rock slope stability. Defining the areas theoretically most prone to rockfalls can be particularly useful to simulate trajectory profiles and to generate hazard maps, which are the basis for land use planning in mountainous regions. The most important questions to address in order to assess rockfall hazard are: Where are the most probable sources for future rockfalls located? What are the frequencies of occurrence of these rockfalls? I characterized the fracturing patterns in the field and with LiDAR point clouds. Afterwards, I developed a model to compute the failure mechanisms on terrestrial point clouds in order to assess the susceptibility to rockfalls at the cliff scale. Similar procedures were already available to evaluate the susceptibility to rockfalls based on aerial digital elevation models. This new model gives the possibility to detect the most susceptible rockfall sources with unprecented detail in the vertical and overhanging areas. The results of the computation of the most probable rockfall source areas in granitic cliffs of Yosemite Valley and Mont-Blanc massif were then compared to the inventoried rockfall events to validate the calculation methods. Yosemite Valley was chosen as a test area because it has a particularly strong rockfall activity (about one rockfall every week) which leads to a high rockfall hazard. The west face of the Dru was also chosen for the relevant rockfall activity and especially because it was affected by some of the largest rockfalls that occurred in the Alps during the last 10 years. Moreover, both areas were suitable because of their huge vertical and overhanging cliffs that are difficult to study with classical methods. Limit equilibrium models have been applied to several case studies to evaluate the effects of different parameters on the stability of rockslope areas. The impact of the degradation of rockbridges on the stability of large compartments in the west face of the Dru was assessed using finite element modeling. In particular I conducted a back-analysis of the large rockfall event of 2005 (265'000 m3) by integrating field observations of joint conditions, characteristics of fracturing pattern and results of geomechanical tests on the intact rock. These analyses improved our understanding of the factors that influence the stability of rock compartments and were used to define the most probable future rockfall volumes at the Dru. Terrestrial laser scanning point clouds were also successfully employed to perform geological mapping in 3D, using the intensity of the backscattered signal. Another technique to obtain vertical geological maps is combining triangulated TLS mesh with 2D geological maps. At El Capitan (Yosemite Valley) we built a georeferenced vertical map of the main plutonio rocks that was used to investigate the reasons for preferential rockwall retreat rate. Additional efforts to characterize the erosion rate were made at Monte Generoso (Ticino, southern Switzerland) where I attempted to improve the estimation of long term erosion by taking into account also the volumes of the unstable rock compartments. Eventually, the following points summarize the main out puts of my research: The new model to compute the failure mechanisms and the rockfall susceptibility with 3D point clouds allows to define accurately the most probable rockfall source areas at the cliff scale. The analysis of the rockbridges at the Dru shows the potential of integrating detailed measurements of the fractures in geomechanical models of rockmass stability. The correction of the LiDAR intensity signal gives the possibility to classify a point cloud according to the rock type and then use this information to model complex geologic structures. The integration of these results, on rockmass fracturing and composition, with existing methods can improve rockfall hazard assessments and enhance the interpretation of the evolution of steep rockslopes. -- La caractérisation de la géologie en 3D pour des parois rocheuses inaccessibles est une étape nécessaire pour évaluer les dangers naturels tels que chutes de blocs et glissements rocheux, mais aussi pour réaliser des modèles stratigraphiques ou de structures plissées. Les modèles géologiques 3D ont un grand potentiel pour être appliqués dans une vaste gamme de travaux géologiques dans le domaine de la recherche, mais aussi dans des projets appliqués comme les mines, les tunnels ou les réservoirs. Les développements récents des outils de télédétection terrestre (LiDAR, photogrammétrie et imagerie multispectrale / hyperspectrale) sont en train de révolutionner l'acquisition d'informations géomorphologiques et géologiques. Par conséquence, il y a un grand potentiel d'amélioration pour la modélisation d'objets géologiques, ainsi que des mécanismes de rupture et des conditions de stabilité, en intégrant des données détaillées acquises à distance. Pour augmenter les possibilités de prévoir les éboulements futurs, il est fondamental de comprendre l'évolution actuelle de la stabilité des parois rocheuses. Définir les zones qui sont théoriquement plus propices aux chutes de blocs peut être très utile pour simuler les trajectoires de propagation des blocs et pour réaliser des cartes de danger, qui constituent la base de l'aménagement du territoire dans les régions de montagne. Les questions plus importantes à résoudre pour estimer le danger de chutes de blocs sont : Où se situent les sources plus probables pour les chutes de blocs et éboulement futurs ? Avec quelle fréquence vont se produire ces événements ? Donc, j'ai caractérisé les réseaux de fractures sur le terrain et avec des nuages de points LiDAR. Ensuite, j'ai développé un modèle pour calculer les mécanismes de rupture directement sur les nuages de points pour pouvoir évaluer la susceptibilité au déclenchement de chutes de blocs à l'échelle de la paroi. Les zones sources de chutes de blocs les plus probables dans les parois granitiques de la vallée de Yosemite et du massif du Mont-Blanc ont été calculées et ensuite comparés aux inventaires des événements pour vérifier les méthodes. Des modèles d'équilibre limite ont été appliqués à plusieurs cas d'études pour évaluer les effets de différents paramètres sur la stabilité des parois. L'impact de la dégradation des ponts rocheux sur la stabilité de grands compartiments de roche dans la paroi ouest du Petit Dru a été évalué en utilisant la modélisation par éléments finis. En particulier j'ai analysé le grand éboulement de 2005 (265'000 m3), qui a emporté l'entier du pilier sud-ouest. Dans le modèle j'ai intégré des observations des conditions des joints, les caractéristiques du réseau de fractures et les résultats de tests géoméchaniques sur la roche intacte. Ces analyses ont amélioré l'estimation des paramètres qui influencent la stabilité des compartiments rocheux et ont servi pour définir des volumes probables pour des éboulements futurs. Les nuages de points obtenus avec le scanner laser terrestre ont été utilisés avec succès aussi pour produire des cartes géologiques en 3D, en utilisant l'intensité du signal réfléchi. Une autre technique pour obtenir des cartes géologiques des zones verticales consiste à combiner un maillage LiDAR avec une carte géologique en 2D. A El Capitan (Yosemite Valley) nous avons pu géoréferencer une carte verticale des principales roches plutoniques que j'ai utilisé ensuite pour étudier les raisons d'une érosion préférentielle de certaines zones de la paroi. D'autres efforts pour quantifier le taux d'érosion ont été effectués au Monte Generoso (Ticino, Suisse) où j'ai essayé d'améliorer l'estimation de l'érosion au long terme en prenant en compte les volumes des compartiments rocheux instables. L'intégration de ces résultats, sur la fracturation et la composition de l'amas rocheux, avec les méthodes existantes permet d'améliorer la prise en compte de l'aléa chute de pierres et éboulements et augmente les possibilités d'interprétation de l'évolution des parois rocheuses.
Resumo:
L'état de stress post-traumatique (ESPT) apparaît dans les mois qui suivent un ou plusieurs événements potentiellement traumatiques (EPT) (par exemple, guerre, violences, accidents, chirurgie invasive). Les symptômes comprennent des souvenirs intrusifs, des cauchemars, un évitement et des émotions négatives (par exemple, honte, culpabilité, perte d'espoir, sentiment d'étrangeté), ainsi qu'une hypervigilance. Sous-diagnostiqué et sous-traité, l'ESPT a un impact négatif sur la qualité de vie et le fonctionnement des patients. Sa prévalence en Suisse est de 0,7 % (plus élevée dans certaines populations, par exemple, 13 % chez les hommes requérants d'asile déboutés). L'approche psychothérapeutique est centrale dans la prise en charge, un traitement médicamenteux pouvant également être utile. Cette revue (systématique) cherche à actualiser les connaissances sur l'efficacité des psychothérapies pour le traitement de l'ESPT.
Resumo:
Après un ou plusieurs événements potentiellement traumatisants (EPT), tels qu'accidents, mort inattendue d'une personne aimée, chirurgie invasive, guerre, violences physiques et sexuelles par exemple, certaines personnes peuvent développer un état de stress posttraumatique (ESPT). Elles ont l'impression de revivre le traumatisme et présentent des comportements d'évitement, une hyperexcitation ainsi que des émotions négatives. L'ESPT est associé à une réduction de la qualité de vie des patients concernéset a un impact majeur sur leur fonctionnement. Son coût économique est également important. Sa prévalence varie en Europe de 0,6 à 6,7 %. En Suisse, elle est estimée à 0,7 % mais peut atteindre des niveaux beaucoup plus élevés selon les populations ; 13 % des hommes demandeurs d'asile déboutés souffrent d'ESPT par exemple. Des études suggèrent que des changements cérébraux d'hormones de stress peuvent contribuer à l'ESPT. Cette revue systématique cherche à déterminer si la prescription d'une médication active au niveau cérébral est susceptible de prévenir l'apparition d'un ESPT.
Resumo:
L'anthologie du futurisme que livre Giovanni Lista en 2015 soulève de nombreuses questions. Combien de futurismes existe-t-il ? Quelle place l'historien occupe-t-il dans l'histoire qu'il écrit ? Quels liens, enfin, cette histoire entretient-elle avec les événements qui lui succèdent et l'actualité ? Il s'agit dans ces lignes de dépasser le dossier «G. Lista 2015» afin de proposer une réflexion sur l'historiographie du futurisme, qui représente à maints égards «la quadrature du cercle dans l'histoire des avant-gardes du XXe siècle» (G. Lista, Qu'est-ce que le futurisme ?, p. 866).
Resumo:
Problématique. Le diabete de type 2 est la maladie metabolique la plus frequente, sa prevalence ne cesse de croitre et parallelement, la population vieillissante est en constante augmentation. Le diagnostic de diabete de type 2 accroit le risque de syndrome geriatrique. Pour prevenir d'eventuelles complications, le traitement du diabete de type 2 est constitue de differentes composantes incluant des automesures de la glycemie capillaire, une prise reguliere du traitement pharmacologique souvent multiples de l'activite physique et enfin le suivi de recommandations pour une alimentation equilibree. Pour la personne agee diabetique de type 2, l'apprentissage de l'application de ces composantes du traitement signifie qu'elle doit proceder a des ajustements dans sa vie quotidienne. Buts. Les buts de cette etude sont : 1) de decrire l'ajustement psychosocial de la personne agee au diabete de type 2, et 2) d'explorer la presence de relations entre differentes variables sociodemographiques et de sante et l'ajustement psychosocial de personnes agees diabetiques de type 2. Méthodologie. Il s'agit d'une etude descriptive correlationnelle. L'echantillon de convenance est compose de 57 participants ages de plus de 65 ans connus pour un diagnostic de diabete de type 2. Les mesures ont ete effectuees par l'utilisation du questionnaire « The Psychological Adjustement to Illness Scale (PAIS-SR) » developpe par Derogatis (1986). Les donnees ont ete recoltees dans un centre ambulatoire universitaire de consultation en diabetologie en Suisse Romande. La théorie de l'adaptation cognitive lors d'événements menaçants (Taylor, 1983) a servi de cadre theorique a l'etude. Résultats. La majorite des participants a l'etude est de sexe masculin et l'age moyen des participants a l'etude est de 71 ans. Les participants ont un ajustement psychosocial a la maladie positif. Le score des signes depressifs est faible, tandis que davantage de difficultes apparaissent dans le domaine des relations sexuelles. Tous les participants ont des comorbidites ou ont developpe des complications. La moyenne de l'hemoglobine glyquee (HbA1c) correspond aux normes preconisees par les experts. Aucune correlation significative n'a pu etre etablie entre le niveau d'ajustement psychosocial, et les variables sociodemographiques et de sante.Conclusion : Les participants a l'etude ont un controle glycemique optimal et presentent un ajustement psychosocial positif. Malgre le fait qu'aucune correlation n'a pu etre determinee entre les differentes variables, la problematique reste importante a etudier. Les complications et les comorbidites associees au diagnostic de diabete de type 2 rendent cette population particulierement vulnerable, et a risque de declin fonctionnel. Peu d'etudes ont permis de determiner les composantes favorisant le processus d'adaptation d'un etat de sante vers un etat de maladie, et ce dans un contexte de vieillissement. La recherche dans ce domaine permettrait de determiner plus precisement des axes de prise en charge et de favoriser la prevention du declin fonctionnel.
Resumo:
La contribution propose une exploration longitudinale de la manière dont s'articulent chez Lefort, d'une part, sa compréhension des dimensions constitutives du politique avec, d'autre part, sa lecture d'événements singuliers de la politique française. La période considérée va de Mai 68 aux événements de l'hiver 1995. On montre que le cadre théorique d'arrière-plan, ce que Lefort appelle "le politique", commande très largement la lecture qu'il fait des événements par lesquels il se laisse convoquer. Plus précisément, on montre que, conçu sous l'interpellation de l'expérience totalitaire, ce cadre s'ordonne pour penser les choses politiques à la lumière de la différence totalitarisme/démocratie. Et du même coup, n'est pas en mesure d'accorder un caractère politiquement signifiant à ce qui se déroule dans la "sphère économique", en particulier le fantastique creusement des inégalités survenu depuis au moins la moitié des années 80 du siècle dernier. S'il est vrai que le totalitarisme, sous son visage "soviétique" en tout cas, semble ne plus constituer une menace politique crédible, on s'interroge, pour conclure, sur la pertinence de l'approche lefortienne dans la perspective des luttes émancipatrices.
Resumo:
La prise en charge médicale du mineur non accompagné est complexe et nécessite la mise en place d'un réseau biopsychosocial. A Lausanne, l'Unité multidisciplinaire de santé des adolescents (UMSA) joue un rôle préventif et curatif pour cette population extrêmement vulnérable. Une prise en charge psychologique rapide est souvent nécessaire en raison des événements de vie dramatiques auxquels la plupart de ces adolescents ont été confrontés. L'absence de projet d'avenir pour la majorité de ces adolescents reste une entrave majeure à leur développement et à leur santé mentale et physique. Medical treatment of an unaccompanied minor is made more complicated firstly by its connections with the politics of immigration and secondly by the difficulty in gaining recognition of the priority of the minor's interests. Enabling healthcare teams to travel and meet these particularly vulnerable youths makes medical care more accessible to them and facilitates an optimal bio-psycho-social treatment. For most of these adolescents it is their lack of plans for the future which remains the major obstacle to their development and mental and physical health.
Inactive matrix gla-protein is associated with arterial atiffness in an adult population-based study
Resumo:
La vitesse de l'onde de pouls (VOP) est la méthode pour mesurer la rigidité artérielle la plus répandue et la plus validée. C'est aussi un prédicteur indépendant de la mortalité. La Matrix Gla- protein (MGP) est une protein qui inhibe les calcifications vasculaires. MGP nécessite une enzyme dérivée de la vitamine K pour être activée, à l'instar de certains facteurs de coagulation. La forme inactive de MGP, connue sous le terme de « desphospho-uncarboxylated MGP » (dp-ucMGP), peut-être mesurée dans le plasma. Plus les apports de vitamine K sont importants plus les taux de dp-ucMGP diminue. Les taux de dp-ucMGP ont déjà été étudiés et associés à différents marqueurs cardiovasculaires (CV), aux événements CV et à la mortalité. Dans notre travail de recherche nous avons émis l'hypothèse que des taux élevés de dp-ucMGP seraient associés à une VOP élevée. Nous avons recruté les participants à travers une étude multicentrique suisse (SKIPOGH). Le processus de recrutement ciblait des familles dans lesquelles plusieurs membres étaient d'accord de participer. Nous avons mesuré la dp-ucMGP plasmatique grâce à la méthode immuno-enzymatique « ELISA ». Concernant la VOP, nous avons mesuré les ondes de pression au niveau carotidien et fémorale grâce à un tonomètre et calculer la vitesse de leurs propagations. Par la suite nous avons utilisé un modèle de régression linéaire multiple afin de déterminer le lien entre la VOP et dp- ucMGP. Le modèle était ajusté pour l'âge, la fonction rénale et les risques CV classiques. Nous avons inclut 1001 participants dans les analyses (475 hommes et 526 femmes). La valeur moyenne de la VOP était de 7.87 ± 2.10 (m/s) et celle de dp-ucMGP de 0.43 ± 0.20 (nmol/L). La VOP était positivement et significativement associée à dp-ucMGP avant comme après ajustement pour le sexe, l'âge, l'indice de masse corporel, la taille, la pression artérielle systolique et diastolique, la fréquence cardiaque, la fonction rénale, les taux de cholestérol (LDL, HDL), la glycémie, la consommation de tabac, la présence d'un diabète, l'utilisation de médicaments antihypertenseurs ou hypolipémiants et la présence d'antécédents CV (P<0.01). En conclusion, des taux élevés de dp-ucMGP sont positivement et indépendamment associés à la rigidité artérielle après ajustement pour les facteurs de risques CV traditionnels, la fonction rénale et l'âge. Des études expérimentales sont nécessaires afin de déterminer si une supplémentation en vitamine K permet de ralentir l'avancement de la rigidité artérielle grâce à son activation de la MGP.
Resumo:
Malgré l'existence de vaccins efficaces, l'incidence des infections respiratoires, causées par la grippe et le pneumococcque, reste élevée dans la population adulte occasionnant une importante morbi/mortalité. Ensemble elles représentent la 4ème cause de mortalité, affectant principalement les adultes de 60 ans ou plus. Après une rapide présentation de l'efficacité de ces deux vaccins, nous détaillerons leurs impacts sur la santé cardiovasculaire et la prévention des événements thrombotiques.
Resumo:
La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.
Resumo:
This thesis develops a comprehensive and a flexible statistical framework for the analysis and detection of space, time and space-time clusters of environmental point data. The developed clustering methods were applied in both simulated datasets and real-world environmental phenomena; however, only the cases of forest fires in Canton of Ticino (Switzerland) and in Portugal are expounded in this document. Normally, environmental phenomena can be modelled as stochastic point processes where each event, e.g. the forest fire ignition point, is characterised by its spatial location and occurrence in time. Additionally, information such as burned area, ignition causes, landuse, topographic, climatic and meteorological features, etc., can also be used to characterise the studied phenomenon. Thereby, the space-time pattern characterisa- tion represents a powerful tool to understand the distribution and behaviour of the events and their correlation with underlying processes, for instance, socio-economic, environmental and meteorological factors. Consequently, we propose a methodology based on the adaptation and application of statistical and fractal point process measures for both global (e.g. the Morisita Index, the Box-counting fractal method, the multifractal formalism and the Ripley's K-function) and local (e.g. Scan Statistics) analysis. Many measures describing the space-time distribution of environmental phenomena have been proposed in a wide variety of disciplines; nevertheless, most of these measures are of global character and do not consider complex spatial constraints, high variability and multivariate nature of the events. Therefore, we proposed an statistical framework that takes into account the complexities of the geographical space, where phenomena take place, by introducing the Validity Domain concept and carrying out clustering analyses in data with different constrained geographical spaces, hence, assessing the relative degree of clustering of the real distribution. Moreover, exclusively to the forest fire case, this research proposes two new methodologies to defining and mapping both the Wildland-Urban Interface (WUI) described as the interaction zone between burnable vegetation and anthropogenic infrastructures, and the prediction of fire ignition susceptibility. In this regard, the main objective of this Thesis was to carry out a basic statistical/- geospatial research with a strong application part to analyse and to describe complex phenomena as well as to overcome unsolved methodological problems in the characterisation of space-time patterns, in particular, the forest fire occurrences. Thus, this Thesis provides a response to the increasing demand for both environmental monitoring and management tools for the assessment of natural and anthropogenic hazards and risks, sustainable development, retrospective success analysis, etc. The major contributions of this work were presented at national and international conferences and published in 5 scientific journals. National and international collaborations were also established and successfully accomplished. -- Cette thèse développe une méthodologie statistique complète et flexible pour l'analyse et la détection des structures spatiales, temporelles et spatio-temporelles de données environnementales représentées comme de semis de points. Les méthodes ici développées ont été appliquées aux jeux de données simulées autant qu'A des phénomènes environnementaux réels; nonobstant, seulement le cas des feux forestiers dans le Canton du Tessin (la Suisse) et celui de Portugal sont expliqués dans ce document. Normalement, les phénomènes environnementaux peuvent être modélisés comme des processus ponctuels stochastiques ou chaque événement, par ex. les point d'ignition des feux forestiers, est déterminé par son emplacement spatial et son occurrence dans le temps. De plus, des informations tels que la surface bru^lée, les causes d'ignition, l'utilisation du sol, les caractéristiques topographiques, climatiques et météorologiques, etc., peuvent aussi être utilisées pour caractériser le phénomène étudié. Par conséquent, la définition de la structure spatio-temporelle représente un outil puissant pour compren- dre la distribution du phénomène et sa corrélation avec des processus sous-jacents tels que les facteurs socio-économiques, environnementaux et météorologiques. De ce fait, nous proposons une méthodologie basée sur l'adaptation et l'application de mesures statistiques et fractales des processus ponctuels d'analyse global (par ex. l'indice de Morisita, la dimension fractale par comptage de boîtes, le formalisme multifractal et la fonction K de Ripley) et local (par ex. la statistique de scan). Des nombreuses mesures décrivant les structures spatio-temporelles de phénomènes environnementaux peuvent être trouvées dans la littérature. Néanmoins, la plupart de ces mesures sont de caractère global et ne considèrent pas de contraintes spatiales com- plexes, ainsi que la haute variabilité et la nature multivariée des événements. A cet effet, la méthodologie ici proposée prend en compte les complexités de l'espace géographique ou le phénomène a lieu, à travers de l'introduction du concept de Domaine de Validité et l'application des mesures d'analyse spatiale dans des données en présentant différentes contraintes géographiques. Cela permet l'évaluation du degré relatif d'agrégation spatiale/temporelle des structures du phénomène observé. En plus, exclusif au cas de feux forestiers, cette recherche propose aussi deux nouvelles méthodologies pour la définition et la cartographie des zones périurbaines, décrites comme des espaces anthropogéniques à proximité de la végétation sauvage ou de la forêt, et de la prédiction de la susceptibilité à l'ignition de feu. A cet égard, l'objectif principal de cette Thèse a été d'effectuer une recherche statistique/géospatiale avec une forte application dans des cas réels, pour analyser et décrire des phénomènes environnementaux complexes aussi bien que surmonter des problèmes méthodologiques non résolus relatifs à la caractérisation des structures spatio-temporelles, particulièrement, celles des occurrences de feux forestières. Ainsi, cette Thèse fournit une réponse à la demande croissante de la gestion et du monitoring environnemental pour le déploiement d'outils d'évaluation des risques et des dangers naturels et anthro- pogéniques. Les majeures contributions de ce travail ont été présentées aux conférences nationales et internationales, et ont été aussi publiées dans 5 revues internationales avec comité de lecture. Des collaborations nationales et internationales ont été aussi établies et accomplies avec succès.
Resumo:
Lorsque de l'essence est employée pour allumer et/ou propager un incendie, l'inférence de la source de l'essence peut permettre d'établir un lien entre le sinistre et une source potentielle. Cette inférence de la source constitue une alternative intéressante pour fournir des éléments de preuve dans ce type d'événements où les preuves matérielles laissées par l'auteur sont rares. Le but principal de cette recherche était le développement d'une méthode d'analyse de spécimens d'essence par GC-IRMS, méthode pas routinière et peu étudiée en science forensique, puis l'évaluation de son potentiel à inférer la source de traces d'essence en comparaison aux performances de la GC-MS. Un appareillage permettant d'analyser simultanément les échantillons par MS et par IRMS a été utilisé dans cette recherche. Une méthode d'analyse a été développée, optimisée et validée pour cet appareillage. Par la suite, des prélèvements d'essence provenant d'un échantillonnage conséquent et représentatif du marché de la région lausannoise ont été analysés. Finalement, les données obtenues ont été traitées et interprétées à l'aide de méthodes chimiométriques. Les analyses effectuées ont permis de montrer que la méthodologie mise en place, aussi bien pour la composante MS que pour l'IRMS, permet de différencier des échantillons d'essence non altérée provenant de différentes stations-service. Il a également pu être démontré qu'à chaque nouveau remplissage des cuves d'une station-service, la composition de l'essence distribuée par cette station est quasi unique. La GC-MS permet une meilleure différenciation d'échantillons prélevés dans différentes stations, alors que la GC-IRMS est plus performante lorsqu'il s'agit de comparer des échantillons collectés après chacun des remplissages d'une cuve. Ainsi, ces résultats indiquent que les deux composantes de la méthode peuvent être complémentaires pour l'analyse d'échantillons d'essence non altérée. Les résultats obtenus ont également permis de montrer que l'évaporation des échantillons d'essence ne compromet pas la possibilité de grouper des échantillons de même source par GC-MS. Il est toutefois nécessaire d'effectuer une sélection des variables afin d'éliminer celles qui sont influencées par le phénomène d'évaporation. Par contre, les analyses effectuées ont montré que l'évaporation des échantillons d'essence a une forte influence sur la composition isotopique des échantillons. Cette influence est telle qu'il n'est pas possible, même en effectuant une sélection des variables, de grouper correctement des échantillons évaporés par GC-IRMS. Par conséquent, seule la composante MS de la méthodologie mise en place permet d'inférer la source d'échantillons d'essence évaporée. _________________________________________________________________________________________________ When gasoline is used to start and / or propagate an arson, source inference of gasoline can allow to establish a link between the fire and a potential source. This source inference is an interesting alternative to provide evidence in this type of events where physical evidence left by the author are rare. The main purpose of this research was to develop a GC-IRMS method for the analysis of gasoline samples, a non-routine method and little investigated in forensic science, and to evaluate its potential to infer the source of gasoline traces compared to the GC-MS performances. An instrument allowing to analyze simultaneously samples by MS and IRMS was used in this research. An analytical method was developed, optimized and validated for this instrument. Thereafter, gasoline samples from a large sampling and representative of the Lausanne area market were analyzed. Finally, the obtained data were processed and interpreted using chemometric methods. The analyses have shown that the methodology, both for MS and for IRMS, allow to differentiate unweathered gasoline samples from different service stations. It has also been demonstrated that each new filling of the tanks of a station generates an almost unique composition of gasoline. GC-MS achieves a better differentiation of samples coming from different stations, while GC-IRMS is more efficient to distinguish samples collected after each filling of a tank. Thus, these results indicate that the two components of the method can be complementary to the analysis of unweathered gasoline samples. The results have also shown that the evaporation of gasoline samples does not compromise the possibility to group samples coming from the same source by GC-MS. It is however necessary to make a selection of variables in order to eliminate those which are influenced by the evaporation. On the other hand, the carried out analyses have shown that the evaporation of gasoline samples has such a strong influence on the isotopic composition of the samples that it is not possible, even by performing a selection of variables, to properly group evaporated samples by GC-IRMS. Therefore, only the MS allows to infer the source of evaporated gasoline samples.
Resumo:
Les conflits civils sont des événements dramatiques qui poussent les individus hors de leurs pays d'origine. Mais si l'émigration était elle-même une force pacificatrice? Dans les deux premiers chapitres, je me suis intéressée à l'impact de l'émigration sur l'incidence des conflits civils dans les pays d'origine. Tout d'abord, je construis un modèle théorique d'équilibre général, dans lequel le niveau de conflit d'équilibre est déterminé par la ratio de combattants dans l'économie. Dans ce modèle, l'émigration décourage les conflits en réduisant les gains d'une rébellion, tout en augmentant le coût d'opportunité des combats. La principale prédiction du modèle est que le conflit diminue avec le niveau du salaire étranger net des coûts de migration. Dans le deuxième chapitre, je teste cette prédiction empiriquement. En utilisant une variable instrumentale, je démontre que l'émigration vers les pays développés diminue l'incidence de guerres civiles dans les pays d'origine. Ces résultats prouvent qu'en ouvrant leurs frontières, les pays d'accueil pourraient contribuer à sauver des vies, aussi bien celles des migrants que celles des habitants restés dans leur pays. De plus, les conflits civils tendent à détruire des sociétés en traumatisant les personnes touchées, augmentant ainsi le risque des conflits futurs. Afin de mieux comprendre ce cercle vicieux et de pouvoir y remédier, le troisième chapitre détermine si les enfants ayant vécu la guerre ont une tendance à être plus violent que des co-nationaux nés après la guerre. L'analyse se concentre sur les demandeurs d'asile en Suisse : Cette population est intéressante puisque l'allocation des demandeurs d'asile entre cantons est aléatoire, ce qui prévient le choix d'un canton avec un taux de criminalité plus élevé. Les résultats démontrent un effet de traumatisme causé par la guerre augmentant ainsi le risque de criminalité dans la vie adulte. Cependant, l'analyse de politiques publiques montre que la mise en place de politiques judicieuses permet d'éviter les conséquences de l'exposition à la guerre. En particulier, en offrant aux nouveaux arrivants l'accès au marché de travail ainsi que des perspectives à long-terme, la Suisse peut éliminer complètement l'effet du traumatisme sur la criminalité.
Resumo:
Introduction Selon les recommandations internationales, l'angioplastie primaire est le traitement de choix de l'infarctus transmural aigu du myocarde (STEMI). L'évidence de ce constat reste peu claire en ce qui concerne certaines sous-‐populations. C'est le cas, par exemple, des personnes d'âge avancé. La problématique du traitement de l'infarctus du myocarde chez le sujet âgé semble essentielle à une époque de vieillissement démographique mondial, et ce car le patient type présentant un STEMI évolue parallèlement à ce phénomène. L'objectif de la présente étude était d'observer la survie à long terme des octogénaires résidant en Suisse après traitement d'un infarctus de type STEMI selon les recommandations internationales. Méthodologie Inclusion rétrospective de tous les patients âgés de ≥ 80 ans victimes d'un STEMI entre janvier 2008 et novembre 2011. Informations démographiques et pathologiques récoltées à partir des archives et dossiers informatisés du Centre hospitalier universitaire vaudois (CHUV). Critère d'évaluation principal : mortalité à 3 ans, toutes causes confondues. Données de mortalité obtenues par le dossier informatisé (si décès intra-‐hospitalier) ou par contact avec les autorités administratives de la Suisse romande. Critères d'évaluation secondaire : réussite de l'intervention et événements intra-‐hospitaliers (informations obtenues grâce au dossier informatisé). Ce\e recherche clinique a reçu l'aval de la Commission d'éthique cantonale vaudoise. Résultats 108 patients correspondaient à nos critères dans la période sélectionnée ; 5 ont été exclus car non domiciliés en Suisse. Collectif final (103 patients) âgé en moyenne de 84.3 ans. Une majorité de femmes (51.4%) et une plus faible proportion de tabagiques étaient les divergences par rapport à la population STEMI générale. À 3 ans, une mortalité supérieure à 32% fut enregistrée dont plus du tiers des décès survenant dans le premier mois suivant l'infarctus. Discussion et conclusion La mortalité objectivée chez l'octogénaire traité par angioplastie pour un STEMI est particulièrement élevée, inattendue et semble plus importante que celle d'un octogénaire non coronarien. Ce constat devra être confirmé par d'autres auteurs car les études concernant cette problématique sont encore rares.
Resumo:
Le self est une notion polysémique qui fait l'objet d'un consensus relatif dans plusieurs domaines, dont la psychologie du développement. Elle rend compte de la faculté de s'éprouver le même au fil du temps et de distinguer le « je » qui regarde du « moi » regardé. C'est le garant d'un sens de soi plus ou moins cohérent au fil du temps, en dépit des changements qui surviennent au cours de la vie. Le self combine des processus de réflexivité et d'intersubjectivité. Nous en avons analysé trois composantes fonctionnelles : la mémoire de travail, la mémoire épisodique et la narration, à partir d'un protocole expérimental témoignant de son ontogenèse chez des enfants de 6 à 9 ans (n=24 répartis en deux groupes de 6‐7 et 8-9 ans). Nous avons créé le « jeu informatique du lutin » qui propose un parcours semiorienté dans un monde imaginaire. C'est une narration de soi, opérant la mise en sens des temporalités et des espaces auxquels les événements se réfèrent. Deux semaines après cette « aventure », on recueille la narration des souvenirs épisodiques de cette histoire. Nous avons également utilisé un test de mémoire de travail visuospatiale non verbale. Des différences développementales affectent les dimensions narratives de la mémoire de l'épisode du jeu, comme l'efficacité de la mémoire de travail visuospatiale. Ces développements témoignent d'une augmentation de « l'épaisseur temporelle de la conscience» entre 6 et 9 ans. L'épaisseur de la conscience renvoie fondamentalement à la faculté du self de vivre le temps dans une cyclicité incluant le passé, le présent et le futur anticipé. Le développment observé élargit les possibilités de mettre en lien des mémoires et des scénarios futurs, tout comme les mises en sens des relations aux autres et à soi-même. Self is a polysemic concept of common use in various scientific fields, among which developmental psychology. It accounts for the capacity to maintain the conviction to be « oneself », always the same through circumstances and throughout my life. This important function contributes in maintaining coherence and some sorte of Ariadne's thread in memory. To analyse the ontogeny of the self, we have focused upon three components : working memory, episodic memory and narration in children aged between 6 and 9 years. We used a non verbal working memory task. It was completed by a video game specially designed for our purpose, in which children were engaged in moving an elf in a landscape changing through seasons, in order to deliver a princess from a mischievous wizard. Two weeks after the game, the children had to tell what happened while they moved the elf. It is a self-narrative that creates a link‐up of temporality and spaces to which the events refer. The narrated episode was assessed for its coherence and continuity dimensions. Developmental differences affect the narrative dimensions of the memory of the episode of the game, as the effectiveness of visuospatial working memory. These developments show an increase in "temporal thickness of consciousness" between 6 and 9 years. The thickness of consciousness basically refers to the ability of the self to live in a cyclical time including past, present and anticipated future. The observed development broadens the possibilities to link memories and future scenarios, like setting sense of relations with others and with oneself.