999 resultados para méthodes qualitatives
Resumo:
La fracture périprothétique du fémur (FPF) représente une complication sérieuse des arthroplasties de hanche. Différents matériels d'ostéosynthèse ont été utilisés pour l'ostéosynthèse des FPFs. Toutefois, aucune étude n'a rapporté les résultats obtenus avec une plaque anatomique non-verrouillée avec des trous excentrés. Les buts de ce travail étaient de présenter 1) le taux de consolidation des FPF traitées par cet implant, 2) les caractéristiques péri-opératoires 3) le taux de complications, et 4) les résultats en terme d'autonomie obtenus après le traitement des FPF du groupe B selon Vancouver avec une plaque anatomique à trous excentrés. Hypothèse L'utilisation de cette plaque permet d'obtenir un taux élevé de consolidation avec un minimum de complications mécaniques. Matériels et Méthodes Quarante-trois patients, d'âge moyen 79 ans ± 13 (41 - 98), qui ont été traités pour une ostéosynthèse d'une FPF de type B selon Vancouver avec cette plaque entre 2002 et 2007 ont été inclus. Les patients ont été classifiées selon les scores ASA et de Charnley. Le temps opératoire, les pertes sanguines chirurgicales, le nombre de transfusion, la durée d'hospitalisation, le délai de consolidation, le lieu de vie ainsi que l'autonomie (score de Parker) ont été évalués. Le taux de survie sans révision a été calculé par la méthode de Kaplan-Meier. Le recul moyen est de 42 mois ± 20 (min - max : 16 - 90). Résultats La consolidation a été obtenue chez tous les patients avec un délai moyen de 2,4 mois ± 0,6 (2-4). 1 patient avec un cal vicieux en varus était à déplorer. Le score de Parker a diminué de 5,93 ± 1,94 (2-9) à 4,93 ± 1,8 (1- 9) (p = 0.01). 2 révisions chirurgicales ont été nécessaires sur la série. Le taux de survie à 5 ans des prothèses après ostéosynthèse de la FPF était de 83,3 % ± 12,6 %. Conclusion Cette plaque anatomique avec trous excentrés permet le traitement des FPF du type B et garantit une consolidation de la fracture avec un faible taux de complications liés à l'ostéosynthèse. Toutefois, les FPF représentent une complication sérieuse des arthroplasties de hanche assortie d'un fort taux de morbidités et de mortalité.
Resumo:
Atherosclerosis is a chronic cardiovascular disease that involves the thicken¬ing of the artery walls as well as the formation of plaques (lesions) causing the narrowing of the lumens, in vessels such as the aorta, the coronary and the carotid arteries. Magnetic resonance imaging (MRI) is a promising modality for the assessment of atherosclerosis, as it is a non-invasive and patient-friendly procedure that does not use ionizing radiation. MRI offers high soft tissue con¬trast already without the need of intravenous contrast media; while modifica¬tion of the MR pulse sequences allows for further adjustment of the contrast for specific diagnostic needs. As such, MRI can create angiographic images of the vessel lumens to assess stenoses at the late stage of the disease, as well as blood flow-suppressed images for the early investigation of the vessel wall and the characterization of the atherosclerotic plaques. However, despite the great technical progress that occurred over the past two decades, MRI is intrinsically a low sensitive technique and some limitations still exist in terms of accuracy and performance. A major challenge for coronary artery imaging is respiratory motion. State- of-the-art diaphragmatic navigators rely on an indirect measure of motion, per¬form a ID correction, and have long and unpredictable scan time. In response, self-navigation (SM) strategies have recently been introduced that offer 100% scan efficiency and increased ease of use. SN detects respiratory motion di¬rectly from the image data obtained at the level of the heart, and retrospectively corrects the same data before final image reconstruction. Thus, SN holds po-tential for multi-dimensional motion compensation. To this regard, this thesis presents novel SN methods that estimate 2D and 3D motion parameters from aliased sub-images that are obtained from the same raw data composing the final image. Combination of all corrected sub-images produces a final image with reduced motion artifacts for the visualization of the coronaries. The first study (section 2.2, 2D Self-Navigation with Compressed Sensing) consists of a method for 2D translational motion compensation. Here, the use of com- pressed sensing (CS) reconstruction is proposed and investigated to support motion detection by reducing aliasing artifacts. In healthy human subjects, CS demonstrated an improvement in motion detection accuracy with simula¬tions on in vivo data, while improved coronary artery visualization was demon¬strated on in vivo free-breathing acquisitions. However, the motion of the heart induced by respiration has been shown to occur in three dimensions and to be more complex than a simple translation. Therefore, the second study (section 2.3,3D Self-Navigation) consists of a method for 3D affine motion correction rather than 2D only. Here, different techniques were adopted to reduce background signal contribution in respiratory motion tracking, as this can be adversely affected by the static tissue that surrounds the heart. The proposed method demonstrated to improve conspicuity and vi¬sualization of coronary arteries in healthy and cardiovascular disease patient cohorts in comparison to a conventional ID SN method. In the third study (section 2.4, 3D Self-Navigation with Compressed Sensing), the same tracking methods were used to obtain sub-images sorted according to the respiratory position. Then, instead of motion correction, a compressed sensing reconstruction was performed on all sorted sub-image data. This process ex¬ploits the consistency of the sorted data to reduce aliasing artifacts such that the sub-image corresponding to the end-expiratory phase can directly be used to visualize the coronaries. In a healthy volunteer cohort, this strategy improved conspicuity and visualization of the coronary arteries when compared to a con¬ventional ID SN method. For the visualization of the vessel wall and atherosclerotic plaques, the state- of-the-art dual inversion recovery (DIR) technique is able to suppress the signal coming from flowing blood and provide positive wall-lumen contrast. How¬ever, optimal contrast may be difficult to obtain and is subject to RR variability. Furthermore, DIR imaging is time-inefficient and multislice acquisitions may lead to prolonged scanning times. In response and as a fourth study of this thesis (chapter 3, Vessel Wall MRI of the Carotid Arteries), a phase-sensitive DIR method has been implemented and tested in the carotid arteries of a healthy volunteer cohort. By exploiting the phase information of images acquired after DIR, the proposed phase-sensitive method enhances wall-lumen contrast while widens the window of opportunity for image acquisition. As a result, a 3-fold increase in volumetric coverage is obtained at no extra cost in scanning time, while image quality is improved. In conclusion, this thesis presented novel methods to address some of the main challenges for MRI of atherosclerosis: the suppression of motion and flow artifacts for improved visualization of vessel lumens, walls and plaques. Such methods showed to significantly improve image quality in human healthy sub¬jects, as well as scan efficiency and ease-of-use of MRI. Extensive validation is now warranted in patient populations to ascertain their diagnostic perfor¬mance. Eventually, these methods may bring the use of atherosclerosis MRI closer to the clinical practice. Résumé L'athérosclérose est une maladie cardiovasculaire chronique qui implique le épaississement de la paroi des artères, ainsi que la formation de plaques (lé¬sions) provoquant le rétrécissement des lumières, dans des vaisseaux tels que l'aorte, les coronaires et les artères carotides. L'imagerie par résonance magné¬tique (IRM) est une modalité prometteuse pour l'évaluation de l'athérosclérose, car il s'agit d'une procédure non-invasive et conviviale pour les patients, qui n'utilise pas des rayonnements ionisants. L'IRM offre un contraste des tissus mous très élevé sans avoir besoin de médias de contraste intraveineux, tan¬dis que la modification des séquences d'impulsions de RM permet en outre le réglage du contraste pour des besoins diagnostiques spécifiques. À ce titre, l'IRM peut créer des images angiographiques des lumières des vaisseaux pour évaluer les sténoses à la fin du stade de la maladie, ainsi que des images avec suppression du flux sanguin pour une première enquête des parois des vais¬seaux et une caractérisation des plaques d'athérosclérose. Cependant, malgré les grands progrès techniques qui ont eu lieu au cours des deux dernières dé¬cennies, l'IRM est une technique peu sensible et certaines limitations existent encore en termes de précision et de performance. Un des principaux défis pour l'imagerie de l'artère coronaire est le mou¬vement respiratoire. Les navigateurs diaphragmatiques de pointe comptent sur une mesure indirecte de mouvement, effectuent une correction 1D, et ont un temps d'acquisition long et imprévisible. En réponse, les stratégies d'auto- navigation (self-navigation: SN) ont été introduites récemment et offrent 100% d'efficacité d'acquisition et une meilleure facilité d'utilisation. Les SN détectent le mouvement respiratoire directement à partir des données brutes de l'image obtenue au niveau du coeur, et rétrospectivement corrigent ces mêmes données avant la reconstruction finale de l'image. Ainsi, les SN détiennent un poten¬tiel pour une compensation multidimensionnelle du mouvement. A cet égard, cette thèse présente de nouvelles méthodes SN qui estiment les paramètres de mouvement 2D et 3D à partir de sous-images qui sont obtenues à partir des mêmes données brutes qui composent l'image finale. La combinaison de toutes les sous-images corrigées produit une image finale pour la visualisation des coronaires ou les artefacts du mouvement sont réduits. La première étude (section 2.2,2D Self-Navigation with Compressed Sensing) traite d'une méthode pour une compensation 2D de mouvement de translation. Ici, on étudie l'utilisation de la reconstruction d'acquisition comprimée (compressed sensing: CS) pour soutenir la détection de mouvement en réduisant les artefacts de sous-échantillonnage. Chez des sujets humains sains, CS a démontré une amélioration de la précision de la détection de mouvement avec des simula¬tions sur des données in vivo, tandis que la visualisation de l'artère coronaire sur des acquisitions de respiration libre in vivo a aussi été améliorée. Pourtant, le mouvement du coeur induite par la respiration se produit en trois dimensions et il est plus complexe qu'un simple déplacement. Par conséquent, la deuxième étude (section 2.3, 3D Self-Navigation) traite d'une méthode de cor¬rection du mouvement 3D plutôt que 2D uniquement. Ici, différentes tech¬niques ont été adoptées pour réduire la contribution du signal du fond dans le suivi de mouvement respiratoire, qui peut être influencé négativement par le tissu statique qui entoure le coeur. La méthode proposée a démontré une amélioration, par rapport à la procédure classique SN de correction 1D, de la visualisation des artères coronaires dans le groupe de sujets sains et des pa¬tients avec maladies cardio-vasculaires. Dans la troisième étude (section 2.4,3D Self-Navigation with Compressed Sensing), les mêmes méthodes de suivi ont été utilisées pour obtenir des sous-images triées selon la position respiratoire. Au lieu de la correction du mouvement, une reconstruction de CS a été réalisée sur toutes les sous-images triées. Cette procédure exploite la cohérence des données pour réduire les artefacts de sous- échantillonnage de telle sorte que la sous-image correspondant à la phase de fin d'expiration peut directement être utilisée pour visualiser les coronaires. Dans un échantillon de volontaires en bonne santé, cette stratégie a amélioré la netteté et la visualisation des artères coronaires par rapport à une méthode classique SN ID. Pour la visualisation des parois des vaisseaux et de plaques d'athérosclérose, la technique de pointe avec double récupération d'inversion (DIR) est capa¬ble de supprimer le signal provenant du sang et de fournir un contraste posi¬tif entre la paroi et la lumière. Pourtant, il est difficile d'obtenir un contraste optimal car cela est soumis à la variabilité du rythme cardiaque. Par ailleurs, l'imagerie DIR est inefficace du point de vue du temps et les acquisitions "mul- tislice" peuvent conduire à des temps de scan prolongés. En réponse à ce prob¬lème et comme quatrième étude de cette thèse (chapitre 3, Vessel Wall MRI of the Carotid Arteries), une méthode de DIR phase-sensitive a été implémenté et testé
Resumo:
L'épidémiologie et la systémique présentent des analogies aussi bien dans leur champ d'application que dans leurs méthodes, bien qu'elles s'attachent chacune à un corps de doctrine différent. Certaines de ces analogies sont illustrées par des exemples d'épidémiologie en médecine du travail et en psychiatrie.
Resumo:
Présentation En accord avec la loi suisse, seul le patient peut décider de la notification, dans son dossier, d'un ordre de «non réanimation » (DNACPR) en cas d'arrêt cardio-respiratoire. L'équipe médicale peut exceptionnellement prendre une telle décision, si elle juge qu'une réanimation n'a aucune chance d'aboutir. Les mécanismes menant à ce processus de décision n'ont pas encore été complètement investigués, en particulier en Suisse. Enjeu Notre étude vise à déterminer la prévalence de l'ordre de «non réanimation» après l'admission, l'auteur de cette décision, ainsi que son association avec certaines caractéristiques propres aux patients : le sexe, l'âge, la situation familiale, la nationalité, la religion, le nombre et le type de comorbidités. Nous cherchons ainsi à mieux définir quels sont les facteurs importants dans ce processus décisionnel complexe où le jugement médical, ainsi que l'information apportée aux patients sont primordiaux. Contexte de recherche Nous avons effectué une étude observationnelle sur une durée de 6 semaines, en analysant les formulaires d'admission de 194 patients hospitalisés dans le service de médecine interne du CHUV, dans les 72 heures après leur admission. Résultats L'étude montre que plus de la moitié des 194 dossiers de patients analysés ont un ordre de « non réanimation » (DNACPR) (53%). 27% de ces décisions ont été prises par les patients eux-mêmes, 12% par leur représentant thérapeutique/famille et 61% par les équipes médicales. Nous trouvons une association statistiquement significative entre l'ordre DNACPR et l'âge, avec un âge moyen de 80.7 +-10.8 ans dans le groupe « non réanimation » versus 67.5 +- 15.1 ans dans le groupe « réanimation », entre l'ordre DNACPR et une pathologie oncologique, quel que soit le stade de cette dernière, ainsi qu'entre l'ordre DNACPR et la religion protestante. Une analyse de sous-groupe montre que l'âge, ainsi que la pathologie oncologique sont statistiquement significatifs lors de l'analyse des décisions prises par les équipes médicales. La religion protestante est, quant à elle, significative lors de l'analyse des décisions prises par le patient ou son représentant. Perspectives Contrairement aux publications passées, cette étude montre une prédominance de l'ordre de «non réanimation » (DNACPR) à l'admission dans un service de médecine interne, principalement sur décision médicale. La plupart des patients ont été jugés incapables de discernement sur la question ou n'ont tout simplement pas été impliqués dans le processus décisionnel. Une réflexion doit avoir lieu afin de prendre des mesures de sensibilisation auprès des équipes médicales et d'approfondir la formation médicale et éthique sur le sujet de la détermination de l'attitude de réanimation. D'autres études qualitatives permettraient de mieux comprendre les motivations ayant mené à ces nombreuses décisions médicales, ainsi que les critères importants pour les patients.
Resumo:
Comparer une intervention psychothérapeutique interdisciplinaire brève à une prise en charge standard comme traitements pour des patients ayant récemment été diagnostiqués comme souffrant d'un trouble de conversion moteur sévère ou d'attaques non-épileptiques. Méthodes Cette étude randomisée contrôlée de 23 patients consécutifs a comparé a) un groupe d'intervention psychothérapeutique interdisciplinaire recevant 4-6 séances par un psychiatre de liaison, la première et dernière séance étant couplée à une consultation neurologique et à une consultation conjointe par le neurologue et le psychiatre; b) un groupe de prise en charge standard. Après l'intervention, les patients ont été évalués à 2, 6 et 12 mois par le questionnaire de dissociation somatoforme SDQ-20, l'échelle d'impression clinique globale, l'échelle de Rankin, l'utilisation des services de santé, la santé mentale en général (MADRS, échelle de dépression de Beck, composante de santé mentale du SF-36), la qualité de vie (SF-36). Nous avons calculé des modèles linéaires mixtes. Résultats Notre intervention a mené à une amélioration statistiquement significative ? des symptômes physiques (par une mesure du SDQ-20 (p<0.02), et par l'échelle de l'impression clinique globale (p=0.02)) ? des symptômes psychologiques (meilleurs scores à la composante de santé mentale du SF-36 (p<0.05) et à l'inventaire de dépression de Beck (p<0.05)) ? et à une réduction des nouvelles hospitalisations après l'intervention (p<0.05). Conclusion Une intervention psychothérapeutique interdisciplinaire brève en étroite collaboration avec des spécialistes en neurologie dans un cadre de psychiatrie de consultation et liaison a un effet statistiquement significatif sur l'amélioration de patients souffrant de trouble de conversion moteur et d'attaques non-épileptiques.
Resumo:
La constante évolution des biotechnologies de la procréation médicalement assistée (PMA) introduit des nouveautés qui perturbent les représentations de la famille et du « naturel » de la procréation notamment. Ces nouveautés engendrent des préoccupations aussi bien sociales qu'individuelles sur la légitimité et les conditions du recours à la PMA. Partant d'une approche dialogique de la communication, du langage et de la cognition ainsi que de la théorie des représentations sociales, nous faisons l'hypothèse que ces perturbations sont traitées différemment selon l'activité communicative dans laquelle les individus sont engagés. Nous avons alors travaillé à partir de deux corpus de données relevant d'un type d'activité communicative différent : un corpus de presse, de l'ordre d'un discours générique, portant sur la grossesse dite « tardive » (post-ménopause) et un corpus d'entretiens de recherche, de l'ordre d'un discours singulier, avec des couples qui ont recouru à la PMA, et portant sur la cryoconservation des zygotes. Nous appuyant sur les méthodes de l'analyse thématique et de l'analyse de discours, nous centrons notre examen sur les représentations sociales de la maternité (corpus de presse) et du « naturel » (corpus d'entretiens). Nous analysons ce que ces discours permettent d'accomplir socialement, étudions le rapport qu'ils établissent à l'ordre social et symbolique et interrogeons leurs fonctions en termes de processus de « naturalisation » de la PMA. Nos résultats montrent que les nouveautés de la PMA forcent les individus à se (re)positionner dans le champ des valeurs et des normes, lis montrent aussi que, dans ce contexte, les représentations sociales existantes sont mobilisées de différentes manières en fonction des visées argumentatives poursuivies. Ceci impliquant, par ailleurs, si ce n'est une transformation, du moins un renouvellement des représentations. Ils indiquent en outre que, bien que le discours de presse et celui des entretiens ne servent pas exactement les mêmes objectifs, leurs effets de « naturalisation » de la PMA sont comparables en termes de (re)construction de la norme. D'un point de vue dialogique, ils permettent aussi d'avancer que les polémiques sociales et individuelles sont non seulement articulées mais se co-constituent. Ils témoignent aussi du fait que la référence au « naturel » renvoie, plus qu'à un problème de perturbation de la « nature », à l'idée d'une menace de l'ordre social et symbolique. De ce point de vue, les réflexions sur les pratiques de PMA méritent d'être menées par la psychologie sociale et les sciences humaines et sociales plus largement. -- The constant evolution of biotechnologies of medically assisted procreation (MAP) introduces novelties that disturb representations of the family and, notably, of what is considered « natural » in procreation. These novelties give rise to social and individual questions about the legitimacy and the conditions of the use of MAP. Drawing upon a dialogical approach to communication, language and cognition, as well as social representations theory, a hypothesis is advanced that these disturbances are handled differently, depending on the communicative activity individuals are engaged in. Two corpuses of data, representing different communicative activity types, were used: a press corpus, reflecting a generic discourse on "late" pregnancy (post-menopause), and a research interviews corpus, reflecting particular discourses developed by couples who used MAP and have cryopreserved zygotes. Using methods of thematic and discourse analysis, the study focuses on social representations of pregnancy (press corpus) and of the "natural" (interviews corpus). The analysis questions what these discourses enable to achieve socially, how they relate to the social and symbolic order, as well as their function in "naturalising" MAP. The results show that MAP novelties force individuals to (re)position themselves in the field of values and norms. They also show that, in this context, existing social representations are mobilised in different ways depending on the argumentative aims that are being pursued. This implies, if not a transformation, at minimum a renewal of representations. Additionally the results indicate that, although press and interviews discourses might not serve the same aims, their effects on "naturalising" MAP are comparable in terms of (re)constructing the norm. From a dialogical perspective, the findings also allow us to argue that social and individual polemics are not only articulated with one another but are effectively co-constituted. They also evidence the fact that the reference to the "natural" brings forth, more than a problem of disturbing "nature", a threat to the social and symbolic order. From this perspective, reflections on MAP practices deserve further attention within social psychology and social and human sciences at large.
Resumo:
Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.
Resumo:
Contexte: Le Programme cantonal diabète se développe depuis 2010 dans le canton de Vaud. Il a pour objectif de limiter l'évolution de l'incidence du diabète et d'améliorer la prise en charge des patients diabétiques. - Méthodes: Cette étude vise à recueillir des données concernant : 1) la collaboration interprofessionnelle, 2) la pratique professionnelle au regard du « Chronic care model », ainsi que 3) la connaissance et la mise en pratique des recommandations pour la pratique clinique (RPC) auprès du patient diabétique. Les professionnels de santé (PdS) suivant ont été sollicités pour participer à cette étude : médecins et infirmier(ère)s spécialisé(e)s en diabétologie, médecins de premiers recours et infirmier(ère)s en soins généraux. Cette étude comporte un volet quantitatif où les PdS étaient invités à répondre à un questionnaire sur Internet, et un volet qualitatif où des PdS ont été réunis lors de trois focus groups pour recueillir leurs avis sur les trois thématiques de l'étude.
Resumo:
La transfusion de concentrés plaquettaires, dès 1958, a permis d'augmenter l'espérance et la qualité de vie des patients dans le domaine de l'onco-hématologie, notamment en réduisant les risques hémorragiques induits par les chimiothérapies intensives. Après le traumatisme de l'affaire du sang contaminé dans les années 1980-1990, la médecine transfusionnelle a adopté des exigences de sécurité et de qualité très strictes et régulées dans plusieurs pays par les instances politiques. Cependant même les mesures de qualité les plus strictes n'ont permis d'atteindre le risque « zéro », notamment en ce qui concerne les contaminations bactériennes. De plus, la prise de conscience de l'existence de nouveaux pathogènes (West Nile Virus, Chikungunya, Prions) a stimulé le développement de 3 techniques d'inactivation des pathogènes pouvant s'appliquer au plasma et aux concentrés plaquettaires : la technique INTERCEPT utilisant l'amotosalen/UVA, la technique MIRASOL avec la riboflavine/UV et la technique THERAFLEX avec les UVC. La Suisse a fait office de pionnière en étant le premier pays au monde à adopter de manière généralisée l'inactivation des pathogènes par la technique INTERCEPT pour les concentrés plaquettaires dès 2011 après sa validation par Swissmedic en 2009 et son implémentation réussie dans plusieurs centres de transfusion pilotes. Coïncidence? Le décès tragique d'un patient pédiatrique en 2009 suite à une contamination bactérienne par une transfusion de concentré plaquettaire a précédé cette décision. Les cliniciens ont besoin de disposer de concentrés plaquettaires sûrs d'un point de vue microbiologique mais également sur le plan hémostatique, d'où la nécessité de disposer de preuves solides sur l'efficacité thérapeutique de ces nouveaux produits. Ceci a fait l'objet de la revue publiée dans Blood Reviews « The clinical and biological impact of new pathogen inactivation technologies on platelets concentrates » dont l'originalité est de couvrir l'étude de l'effet des processus d'inactivation des pathogènes sur la fonction plaquettaire sous toutes ses facettes allant de la protéomique aux études d'hémovigilance. Ce travail montre l'efficacité de ces méthodes et leur sécurité et souligne que l'observation de taux de recirculation moindre peut être compensée par une augmentation du statut d'activation des plaquettes. Le deuxième article publié comme co-auteur dans le journal Blood Transfusion « In vitro evaluation of pathogen-inactivated buffy coat-derived platelet concentrates during storage: The psoralen-based photochemical treatment step-by-step » se pose la question de la modification des propriétés fonctionnelles des plaquettes dans une étude à deux bras (par comparaison entre plaquettes traitées et non traitées). En plus de deux tests utilisés en pratique clinique (agrégation plaquettaire et cytométrie de flux) un test expérimental d'adhésion plaquettaire au fibrinogène en condition statique a été développé en collaboration avec le Prof Angelillo-Scherrer dans le cadre du laboratoire de recherche et développement du SRTS-VD. Les résultats obtenus démontrent la conservation du métabolisme plaquettaire et des changements mineurs dans la capacité d'agrégation mais une augmentation de la capacité d'adhésion au fibrinogène des plaquettes traitées probablement via une augmentation de la conversion de l'intégrine ailb(B3 dans sa forme activée. Les techniques d'inactivation des pathogènes appliqués aux concentrés plaquettaires représentent un important progrès dans le domaine de la médecine transfusionnelle. Leur impact au niveau moléculaire reste cependant encore en partie inconnu et fait l'objet d'études. Le défi actuel consiste à réussir à les adopter aux concentrés érythrocytaires, ce qui révolutionnerait la médecine transfusionnelle.
Resumo:
Contexte de recherche Mon projet de thèse en médecine concerne l'exploration des facteurs associés à l'excrétion urinaire de calcium durant 24h dans une étude populationnelle suisse. Les données qui ont été utilisées sont issues d'une étude populationnelle connue sous le nom de « Swiss survey on Salt intake », qui a été effectuée entre janvier 2010 et mars 2012 et avait pour but principal d'investiguer la consommation de sel de la population suisse. L'étude a regroupé plusieurs centres d'investigations dans toute la Suisse (11 centres dans 9 cantons), dans trois langues nationales (français, allemand et italien) et concerne des participants âgés de plus de 15 ans. Cette étude avait l'avantage de collecter des données anthropométriques, sanguines, urinaires, de lister les traitements et de poser des questions sur le style de vie (alcool, activité physique, etc.). A notre connaissance, peu d'articles populationnels explorent les facteurs associés à l'excrétion urinaire de calcium durant 24h et notamment l'association de celle-ci avec le calcium corrigé sanguin et la 250H-vitamine D2*3 sanguin chez les hommes et les femmes. Méthodes Après exclusions des données manquantes, 1293 participants sur 1550 ont été retenus pour l'analyse statistique. Celle-ci a été effectuée grâce au logiciel Stata 12. Nous avons utilisé la régression linéaire multiple dont la variable dépendante était l'excrétion urinaire de calcium durant 24h en stratifiant les analyses par sexe (en raison des interactions statistiques significatives entre calcémie et sexe, et entre vitamine D et sexe). Les variables indépendantes comprenaient des variables en lien avec l'excrétion urinaire de calcium (vingt-quatre covariables au total) dont la 250H-vitamine D2+3 (avec la variabilité saisonnière) et la calcémie (calcium sérique corrigé par les protéines). Résultats D'importantes différences entre hommes et femmes ont été observées : une association positive entre l'excrétion urinaire de calcium durant 24h et la calcémie corrigée a été trouvée chez les femmes mais pas chez les hommes. En parallèle, nous relevons une association positive entre l'excrétion urinaire de calcium durant 24h et la 250H-vitamine D2+3 chez les hommes mais pas chez les femmes (liée essentiellement à la présence 250H-vitamine D3 en quantité bien plus importante que la 250H-vitamine D2). Nous soulevons deux hypothèses possibles pour expliquer ces importances différences hommes-femmes. La première hypothèse est l'influence des hormones sexuelles. La seconde hypothèse est la contribution des facteurs diététiques. De nouvelles analyses et de nouvelles études populationnelles sont nécessaires pour confirmer ou infirmer ces hypothèses. Perspectives Une prochaine étape sera d'explorer l'influence de l'excrétion urinaire de sodium, de potassium et d'urée sur les associations observées afin d'étudier une possible influence de l'alimentation sur ces résultats. Une autre étape consistera à doser les hormones sexuelles dans les échantillons de cette étude ou dans ceux d'une autre étude. La prévalence de l'hypercalciurie dans cette étude (9 % chez les hommes et 8.1% chez les femmes) est plus basse que dans d'anciennes études non-populationnelles. Il paraît important de mentionner qu'il existe peu de données sur les normes de calciurie dans la population générale et qu'il n'existe pas de consensus international claire concernant la définition de l'hypercalciurie. Cette prévalence élevée est notamment pertinente dans la cadre des néphrolithiasés, qui sont connues pour être plus fréquentes chez les hommes que chez les femmes. Enjeux Les différences hommes-femmes observées pourraient avoir des implications pour améliorer notre compréhension des mécanismes impliqués dans les lithiases urinaires et dans le risque cardiovasculaire associé ainsi que dans notre compréhension des mécanismes associés à l'ostéoporose.
Resumo:
Introduction : La littérature suggère un lien entre l'exposition à des expériences traumatiques durant l'enfance et des déficits dans le niveau de fonctionnement chez des patients souffrant de psychose. Par contre, l'impact de l'âge au moment de l'exposition à ces expériences n'a pas été investigué chez des patients dans leur phase précoce de la psychose. Méthodes : Deux cents vingt-cinq patients âgés entre 18 et 35 ans ont été évalués au moment de leur entrée dans un programme thérapeutique spécialisé pour la psychose débutante (TIPP), et après 2, 6, 12, 18, 24, 30 et 36 mois de traitement. Les patients exposés à des abus sexuel et/ou physiques (SPA) ont été classifiés selon l'âge au moment de la première exposition (Early-SPA : avant 11 ans d'âge; Late-SPA : entre 12 et 15 ans d'âge) et ils ont été comparés à des patients qui n'ont jamais été exposés à une telle expérience (Non-SPA). Le niveau de fonctionnement dans la phase premorbide a été mesuré avec la Premorbid Adjustment Scale (PAS) et avec les échelles Global Assessment of Functioning (GAF) et Social and Occupational Functionning Assessment Scale (SOFAS) durant le suivi thérapeutique. Résultats : 24.8 % des patients ont été exposés à SPA. Les patients dans le groupe Late-SPA étaient plus souvent des femmes (p=0.010). Les comparaisons avec les patients dans le groupe Non-SPA ont révélé que : (1) Les patients dans le groupe Early et Late-SPA ont montré un moins bon niveau de fonctionnement social premorbide durant l'adolescence précoce, et (2) alors que les patients dans le groupe Early-SPA ont présenté un moins bon niveau de fonctionnement durant tout le suivi selon les scores de GAF (p=0.025) et SOFAS (p=0.048), les patients dans le groupe Late-SPA n'ont pas montré telles différences avec le groupe non exposé. Conclusion : Nos résultats suggèrent un lien entre l'exposition à SPA et une altération ultérieure de niveau de fonctionnement social, avant l'apparition de la maladie. Les patients dans leur phase précoce de la psychose exposés à SPA avant l'âge de 12 ans ont des altérations fonctionnelles durables, alors que les patients exposés à SPA plus tardivement semblent s'améliorer à ce niveau et montrent une meilleure capacité de récupération.
Resumo:
Nos travaux traitent des dispositifs d'orientation scolaire et professionnelle (DOSP) voués au soutien et à l'accompagnement de jeunes inégalement dotés dans leur parcours d'orientation au moment de la transition aux études supérieures. Des innovations méthodologiques étaient requises afin d'étudier cette question dans la perspective théorique de justice sociale d'Amartya Sen. Nous avons procédé à l'élaboration et à la vérification des qualités scientifiques d'outils de récolte de données dans une étude comparative internationale. Notre étude multicas se fonde sur cinq pays (Burkina Faso, Canada, France, Turquie, Suisse). Dans chacun des cas, des données qualitatives ont été récoltées sur le système éducatif, l'organisation des services et les prestations de service d'orientation. Vingt-six entretiens semi-structurés ont été menés auprès de responsables de service, de conseillères et conseillers d'orientation psychologues ainsi que de jeunes en transition vers le supérieur. La validité interne ou crédibilité des outils a été assurée tout au long de l'élaboration et des révisions du protocole de recherche, empruntant les procédés propres à l'étude de cas. La vérification de la validité de construit et de la validité externe ou transférabilité, effectuée à partir des données de la préenquête, a mis en lumière la valeur heuristique de nos outils. Au final, le cadre comparatif des DOSP, présenté en annexe, compte parmi les toutes premières formes d'opérationnalisation du cadre théorique de Sen au champ de l'orientation.
Resumo:
Le but de cette thèse a été d'investiguer la relation entre, d'une part le temps de propagation de l'onde de pouls artérielle du coeur vers les membres inférieurs, et d'autre part le temps séparant, au niveau de l'aorte ascendante, la génération de l'onde antérograde du retour des ondes réfléchies. Le principe de la méthode employée a été de mesurer ces deux temps par deux méthodes indépendantes, ce en les faisant varier par changement rapide de la position du corps, chez sujets humains volontaires. Le facteur gravitationnel a en effet une influence majeure sur la pression transmurale des artères, dont dépend largement la vitesse de propagation des ondes de pouls, tant dans le sens antérograde que rétrograde. Vingt sujets jeunes, en bonne santé, dontIO hommes et 10 femmes, ont été examinés sur une table de tilt, dans deux positions différentes : tête vers le bas (angle de tilt : - 10°) et tête vers le haut (+45°).Dans chaque position, le temps de propagation carotido- femorale (Tcf, succédané du temps aorto-fémoral) et carotido-tibial (Tct, succédané du temps aorto-tibial) a été mesuré avec l'appareil Complior. De même, dans chaque position la pression aortique centrale a été enregistrée par tonométrie radiale en utilisant l'appareil SphygmoCor qui applique une fonction de transfert généralisé pour reconstruire la forme de l'onde de pouls aortique. L'analyse de celle-ci permet ensuite de calculer les temps d'aller-retour des ondes réfléchies atteignant l'aorte pendant la systole (début de l'onde réfléchie, sT1 r) et pendant la diastole (temps de transit moyen de l'onde diastolique réfléchie dMTT). Le changement de position de tête vers le haut à tête vers le bas, a provoqué une augmentation importante du temps de propagation Tct (chez le femmes de 130±10 à 185±18msec, P<0,001 et chez les hommes de 136±9 à 204±18msec P<0.001) ainsi que du temps moyen de transition de l'onde diastolique réfléchie dMTT (chez les femmes de 364±35 à 499±33msec P<0,001 et chez les hommes de 406±22 à 553±21msec, P<0,001). Un modèle de régression mixte montre qu'entre les deux positions, les variations de dMTT sont environ le double de celles de Tct (coefficient de régression 2.1; 95% intervalle de confiance 1.9-2,3, P<0,001). Ces résultats suggèrent que les ondes diastoliques observées dans l'onde de pouls aortique central reconstruites par tonométrie radiale, correspondent, du moins en partie, aux ondes réfléchies générées au niveau des membres inférieurs.
Resumo:
Introduction : la Physiopathologie maternelle de la prééclampsie s'associe typiquement à un état inflammatoire systémique modéré. La protéine "high mobility group box 1" (HMGB-1) est une protéine nucléaire ubiquitaire. En cas de stress cellulaire, elle est relâchée dans le milieu extrace llua li re et peut ainsi exercer son activité pro-inflammatoire. En cas de prééclampsie, le liquide amniotique et le cytoplasme des cellules trophoblastiques contiennent des quantités anormalement élevées de HMGB-1, mais il n'est toujours pas universellement admis que ces concentrations se retrouvent dans le sang maternel. Méthodes : nous avons recruté 32 femmes au troisième trimestre de grossesse, 16 avec et 16 sans prééclampsie. Nous avons également observé 16 femmes non enceintes et en bonne santé, appariées selon l'âge avec les femmes enceintes. Nous avons mesuré la concentration sérique de HMGB-1 chez les femmes enceintes avant, puis 24-48 heures après leur accouchement, en utilisant un kit ELISA commercial. Le même dosage a été réalisé chez les femmes non enceintes, mais à une seule reprise, au moment de leur inclusion dans l'étude. Résultats : le jour de leur inclusion dans l'étude, la concentration médiane [intervalle interquartile] de HMGB-1 chez les femmes enceintes prééclamptiques était de 2.1 ng/ml [1.1 - 3.2], de 1.1 [1.0-1.2] chez les grossesses saines (p < 0.05 vs groupe prééclamptiques) et de 0.6 [0.5 - 0.8] chez les patientes non enceintes (p < 0.01 vs deux autres groupes). Pour les deux groupes de femmes enceintes, les concentrations mesurées en post-partum ne variaient pas significativement de celles mesurées avant l'accouchement. Conclusion : avec ou sans prééclampsie, le troisième triemstre de la grossesse est associé à une élévation des taux circulants de HMGB-1. Cette augmentation est exagérée en cas de prééclampsie. L'origine de ces concentrations élevées reste à déterminer, mais elle semble impliquer d'autres organes que le placenta lui-même.
Resumo:
Characterizing the geological features and structures in three dimensions over inaccessible rock cliffs is needed to assess natural hazards such as rockfalls and rockslides and also to perform investigations aimed at mapping geological contacts and building stratigraphy and fold models. Indeed, the detailed 3D data, such as LiDAR point clouds, allow to study accurately the hazard processes and the structure of geologic features, in particular in vertical and overhanging rock slopes. Thus, 3D geological models have a great potential of being applied to a wide range of geological investigations both in research and applied geology projects, such as mines, tunnels and reservoirs. Recent development of ground-based remote sensing techniques (LiDAR, photogrammetry and multispectral / hyperspectral images) are revolutionizing the acquisition of morphological and geological information. As a consequence, there is a great potential for improving the modeling of geological bodies as well as failure mechanisms and stability conditions by integrating detailed remote data. During the past ten years several large rockfall events occurred along important transportation corridors where millions of people travel every year (Switzerland: Gotthard motorway and railway; Canada: Sea to sky highway between Vancouver and Whistler). These events show that there is still a lack of knowledge concerning the detection of potential rockfalls, making mountain residential settlements and roads highly risky. It is necessary to understand the main factors that destabilize rocky outcrops even if inventories are lacking and if no clear morphological evidences of rockfall activity are observed. In order to increase the possibilities of forecasting potential future landslides, it is crucial to understand the evolution of rock slope stability. Defining the areas theoretically most prone to rockfalls can be particularly useful to simulate trajectory profiles and to generate hazard maps, which are the basis for land use planning in mountainous regions. The most important questions to address in order to assess rockfall hazard are: Where are the most probable sources for future rockfalls located? What are the frequencies of occurrence of these rockfalls? I characterized the fracturing patterns in the field and with LiDAR point clouds. Afterwards, I developed a model to compute the failure mechanisms on terrestrial point clouds in order to assess the susceptibility to rockfalls at the cliff scale. Similar procedures were already available to evaluate the susceptibility to rockfalls based on aerial digital elevation models. This new model gives the possibility to detect the most susceptible rockfall sources with unprecented detail in the vertical and overhanging areas. The results of the computation of the most probable rockfall source areas in granitic cliffs of Yosemite Valley and Mont-Blanc massif were then compared to the inventoried rockfall events to validate the calculation methods. Yosemite Valley was chosen as a test area because it has a particularly strong rockfall activity (about one rockfall every week) which leads to a high rockfall hazard. The west face of the Dru was also chosen for the relevant rockfall activity and especially because it was affected by some of the largest rockfalls that occurred in the Alps during the last 10 years. Moreover, both areas were suitable because of their huge vertical and overhanging cliffs that are difficult to study with classical methods. Limit equilibrium models have been applied to several case studies to evaluate the effects of different parameters on the stability of rockslope areas. The impact of the degradation of rockbridges on the stability of large compartments in the west face of the Dru was assessed using finite element modeling. In particular I conducted a back-analysis of the large rockfall event of 2005 (265'000 m3) by integrating field observations of joint conditions, characteristics of fracturing pattern and results of geomechanical tests on the intact rock. These analyses improved our understanding of the factors that influence the stability of rock compartments and were used to define the most probable future rockfall volumes at the Dru. Terrestrial laser scanning point clouds were also successfully employed to perform geological mapping in 3D, using the intensity of the backscattered signal. Another technique to obtain vertical geological maps is combining triangulated TLS mesh with 2D geological maps. At El Capitan (Yosemite Valley) we built a georeferenced vertical map of the main plutonio rocks that was used to investigate the reasons for preferential rockwall retreat rate. Additional efforts to characterize the erosion rate were made at Monte Generoso (Ticino, southern Switzerland) where I attempted to improve the estimation of long term erosion by taking into account also the volumes of the unstable rock compartments. Eventually, the following points summarize the main out puts of my research: The new model to compute the failure mechanisms and the rockfall susceptibility with 3D point clouds allows to define accurately the most probable rockfall source areas at the cliff scale. The analysis of the rockbridges at the Dru shows the potential of integrating detailed measurements of the fractures in geomechanical models of rockmass stability. The correction of the LiDAR intensity signal gives the possibility to classify a point cloud according to the rock type and then use this information to model complex geologic structures. The integration of these results, on rockmass fracturing and composition, with existing methods can improve rockfall hazard assessments and enhance the interpretation of the evolution of steep rockslopes. -- La caractérisation de la géologie en 3D pour des parois rocheuses inaccessibles est une étape nécessaire pour évaluer les dangers naturels tels que chutes de blocs et glissements rocheux, mais aussi pour réaliser des modèles stratigraphiques ou de structures plissées. Les modèles géologiques 3D ont un grand potentiel pour être appliqués dans une vaste gamme de travaux géologiques dans le domaine de la recherche, mais aussi dans des projets appliqués comme les mines, les tunnels ou les réservoirs. Les développements récents des outils de télédétection terrestre (LiDAR, photogrammétrie et imagerie multispectrale / hyperspectrale) sont en train de révolutionner l'acquisition d'informations géomorphologiques et géologiques. Par conséquence, il y a un grand potentiel d'amélioration pour la modélisation d'objets géologiques, ainsi que des mécanismes de rupture et des conditions de stabilité, en intégrant des données détaillées acquises à distance. Pour augmenter les possibilités de prévoir les éboulements futurs, il est fondamental de comprendre l'évolution actuelle de la stabilité des parois rocheuses. Définir les zones qui sont théoriquement plus propices aux chutes de blocs peut être très utile pour simuler les trajectoires de propagation des blocs et pour réaliser des cartes de danger, qui constituent la base de l'aménagement du territoire dans les régions de montagne. Les questions plus importantes à résoudre pour estimer le danger de chutes de blocs sont : Où se situent les sources plus probables pour les chutes de blocs et éboulement futurs ? Avec quelle fréquence vont se produire ces événements ? Donc, j'ai caractérisé les réseaux de fractures sur le terrain et avec des nuages de points LiDAR. Ensuite, j'ai développé un modèle pour calculer les mécanismes de rupture directement sur les nuages de points pour pouvoir évaluer la susceptibilité au déclenchement de chutes de blocs à l'échelle de la paroi. Les zones sources de chutes de blocs les plus probables dans les parois granitiques de la vallée de Yosemite et du massif du Mont-Blanc ont été calculées et ensuite comparés aux inventaires des événements pour vérifier les méthodes. Des modèles d'équilibre limite ont été appliqués à plusieurs cas d'études pour évaluer les effets de différents paramètres sur la stabilité des parois. L'impact de la dégradation des ponts rocheux sur la stabilité de grands compartiments de roche dans la paroi ouest du Petit Dru a été évalué en utilisant la modélisation par éléments finis. En particulier j'ai analysé le grand éboulement de 2005 (265'000 m3), qui a emporté l'entier du pilier sud-ouest. Dans le modèle j'ai intégré des observations des conditions des joints, les caractéristiques du réseau de fractures et les résultats de tests géoméchaniques sur la roche intacte. Ces analyses ont amélioré l'estimation des paramètres qui influencent la stabilité des compartiments rocheux et ont servi pour définir des volumes probables pour des éboulements futurs. Les nuages de points obtenus avec le scanner laser terrestre ont été utilisés avec succès aussi pour produire des cartes géologiques en 3D, en utilisant l'intensité du signal réfléchi. Une autre technique pour obtenir des cartes géologiques des zones verticales consiste à combiner un maillage LiDAR avec une carte géologique en 2D. A El Capitan (Yosemite Valley) nous avons pu géoréferencer une carte verticale des principales roches plutoniques que j'ai utilisé ensuite pour étudier les raisons d'une érosion préférentielle de certaines zones de la paroi. D'autres efforts pour quantifier le taux d'érosion ont été effectués au Monte Generoso (Ticino, Suisse) où j'ai essayé d'améliorer l'estimation de l'érosion au long terme en prenant en compte les volumes des compartiments rocheux instables. L'intégration de ces résultats, sur la fracturation et la composition de l'amas rocheux, avec les méthodes existantes permet d'améliorer la prise en compte de l'aléa chute de pierres et éboulements et augmente les possibilités d'interprétation de l'évolution des parois rocheuses.