1000 resultados para modèle à effets mixtes
Resumo:
Le management des risques dans les institutions psychiatriques représente aujourd'hui un challenge majeur pour les cliniciens, les administrateurs et les décideurs politiques. Il pose la question de la formation des équipes au management de la violence et de l'évaluation des patients dans la clinique quotidienne. Cet article fait le lien entre une étude, menée sur un an dans une institution psychiatrique et un modèle de management des risques, le modèle cindynique. Les résultats doivent interroger sur les représentations du phénomène de violence par les différents acteurs, l'appropriation par les équipes d'outils d'évaluation de la dangerosité et sur la communication dans l'équipe pluridisciplinaire et avec le patient.
Resumo:
Le taux de réadmission à 30 jours de la sortie de l'hôpital est un indicateur de la qualité de prise en charge hospitalière pouvant refléter des soins suboptimaux ou une coordination insuffisante avec les intervenants ambulatoires. Il existe un algorithme informatisé validé dénommé SQLape® qui, basé sur des données administratives suisses, les codes diagnostiques et les codes d'interventions, permet d'identifier rétrospectivement les réadmissions potentiellement évitables (REAPE), avec une haute sensibilité (96%) et spécificité (96%). Sont considérées REAPE, les réadmissions précoces (< 30 jours), non planifiées à la sortie du séjour index et dues à un diagnostic déjà actif lors du précédent séjour ou dues à une complication d'un traitement. Le but de notre étude a été d'analyser rétrospectivement tous les séjours des patients admis dans le service de Médecine Interne du CHUV entre le 1 janvier 2009 et le 31 décembre 2011, afin de quantifier la proportion de REAPE, puis d'identifier des facteurs de risques afin d'en dériver un modèle prédictif. Nous avons analysé 11'074 séjours. L'âge moyen était de 72 +/- 16,8 ans et 50,3 % étaient des femmes. Nous avons comptabilisé 8,4 % décès durant les séjours et 14,2 % réadmissions à 30 jours de la sortie, dont la moitié (7,0 %) considérées potentiellement évitables selon SQLape®. Les facteurs de risques de REAPE que nous avons mis en évidence étaient les suivants : au moins une hospitalisation antérieure à l'admission index, un score de comorbidité de Charlson > 1, la présence d'un cancer actif, une hyponatrémie, une durée de séjour > 11 jours ou encore la prescription d'au moins 15 médicaments différents durant le séjour. Ces variables ont été utilisées pour en dériver un modèle prédictif de REAPE de bonne qualité (aire sous la courbe ROC de 0,70), plus performant pour notre population qu'un autre modèle prédictif développé et validé au Canada, dénommé score de LACE. Dans une perspective d'amélioration de la qualité des soins et d'une réduction des coûts, la capacité à identifier précocement les patients à risque élevé de REAPE permettrait d'implémenter rapidement des mesures préventives ciblées (par exemple un plan de sortie détaillé impliquant le patient, son entourage et son médecin traitant) en plus des mesures préventives générales (par exemple la réconciliation médicamenteuse)
Resumo:
L'arthrose est une maladie dégénérative des articulations due à une dégradation progressive du cartilage. La calcification de l'articulation (essentiellement due à des dépôts de cristaux de phosphate de calcium basique -cristaux BCP-) est une caractéristique de cette maladie. Cependant, le rôle des cristaux BCP reste à déterminer. Nous avons tout d'abord déterminé en utilisant des cultures primaires de chondrocytes que les cristaux de BCP induisaient la production de la cytokine IL-6, via une signalisation intracellulaire implicant les kinase Syk, PI3 et Jak et Stat3. Les cristaux de BCP induisent également la perte de protéoglycanes et l'expression de IL-6 dans des explants de cartlage humain et ces deux effets peuvent être bloqués par un inhibiteur de IL-6, le Tocilizumab. Par ailleurs, nous avons trouvé que l'IL-6 ajouté à des chondrocytes, favorisait la formation de cristax de BCP et augmentait l'expression de gènes impliqués dans le processus de minéralisation : Ank (codant pour un transporteur de pyrophooshate), Annexin5 (codant pour un canal calcique) et Pit-1 (codant pour un transporteur de phoshate). In vivo, les cristaux de BCP injectés dans l'articulation de souris induisent une érosion du cartilage. Dans un modèle murin d'arthrose du genou induit par ménisectomie, nous avons observé la formation progressive de cristaux de BCP. Fait intéressant, la présence de ces cristaux dans l'articulation précédait la destruction du cartilage. Un agent susceptible de bloquer les calcifications tel que le sodium thiosulfate (STS), administré à des souris ménisectomisées, inhibait le dépôt intra-articulaire de ces cristaux ainsi que l'érosion du cartilage. Nous avons identifié ainsi un cercle vicieux dans l'arthrose, les cristaux induisant l'interleukine-6 et l'interleukine-6 induisant la formation de ces cristaux. Nous avons étudié si on pouvait bloquer cette boucle cristaux de BCP-IL6 soit par des agents décalcifiants, soit par des inhibiteurs d'IL-6. In vitro, des anticorps anti IL- 6 ou des inhibiteurs de signalisation, inhibaient significativement IL-6 et la minéralisation induite par IL-6. De même le STS inhibait la formation de ces cristaux et la production de l'IL-6. Tout récemment, nous avons trouvé que des inhibiteurs de la xanthine oxidoréductase étaient aussi capables d'inhiber à la fois la production d'IL-6 et la minéralization des chondrocytes. Finalement, nous avons pu exclure un rôle du système IL-1 dans le modèle d'arthrose induite par ménisectomie, les souris déficientes pour IL-1a/ß, MyD88 et l'inflammasome NLRP3 n'étant pas protégées dans ce modèle d'arthrose. L'ensemble de nos résultats montre que les cristaux BCP sont pathogéniques dans l'arthrose et qu'un inhibiteur de minéralisation tel que le STS ou un inhibiteur de l'interleukine-6 constitueraient des nouvelles thérapies pour l'arthrose. -- Osteoarthritis (OA), the most common degenerative disorder of the joints, results from an imbalance between the breakdown and repair of the cartilage and surrounding articular structures. Joint calcification (essentially due to basic calcium phosphate (BCP) crystal deposition) is a characteristic feature of OA. However, the role of BCP crystal deposition in the pathogenesis of OA remains unclear[1][1]. We first demonstrated that in primary murine chondrocytes exogenous BCP crystals led to IL-6 up-modulation and that BCP crystal signaling pathways involved Syk and PI3 kinases, and also gp130 associated molecules, Jak2 and Stat3. BCP crystals also induced proteoglycan loss and IL-6 expression in human cartilage expiants, (which were significantly reduced by an IL-6 inhibitor). In addition, we found that in chondrocytes exogenous IL-6 promoted calcium-containing crystal formation and up- regulation of genes codifying for proteins involved in the calcification process: the inorganic pyrophosphate transport channel Ank, the calcium channel Annexinö and the sodium/phosphate cotransporter Piti. In vivo, BCP crystals injected into murine knee joints induced cartilage erosion. In the menisectomy model, increasing deposits, identified as BCP crystals, were progressively observed around the joint before cartilage erosion. These deposits strongly correlated with cartilage degradation and IL-6 expression. These results demonstrated that BCP crystals deposition and IL-6 production are mutually reinforcing in the osteoarthritic pathogenic process. We then investigated if we could block the BCP-IL6 loop by either targeting IL-6 production or BCP crystal deposits. Treatment of chondrocytes with anti-IL-6 antibodies or inhibitors of IL-6- signaling pathway significantly inhibited IL-6-induced crystal formation. Similarly, sodium thiosulfate (STS), a well-known systemic calcification inhibitor, decreased crystal deposition as well as HA-induced IL-6 secretion in chondrocytes and, in vivo, it decreased crystal deposits size and cartilage erosion in menisectomized knees. Interestingly, we also found that xanthine-oxidoreductase (XO) inhibitors inhibited both IL-6 production and calcium crystal depositis in chondrocytes. We began to unravel the mechanisms involved in this coordinate modulation of IL-6 and mineralization. STS inhibited Reactive Oxygen Species (ROS) generation and we are currently investigating whether XO represents a major source of ROS in chondrocyte mineralization. Finally, we ruled out that IL-1 activation/signaling plays a role in the murine model of OA induced by menisectomy, as IL-1a/ß, the IL-1 R associated molecule MyD88 and NLRP3 inflammasome deficient mice were not protected in this model of OA. Moreover TLR-1, -2, -4,-6 deficient mice had a phenotype similar to that of wild-type mice. Altogether our results demonstrated a self-amplification loop between BCP crystals deposition and IL-6 production, which represents an aggravating process in OA pathogenesis. As currently prescribed OA drugs are addressing OA symptoms,our results highlight a potential novel treatment strategy whereby inhibitors of calcium- containing crystal formation and IL-6 could be combined to form the basis of a disease modifying treatment and alter the course of OA.
Resumo:
Dans un monde toujours plus globalisé depuis le milieu du XXcmc siècle, le couple linguistiquement mixte est une constellation conjugale de plus en plus fréquente en Suisse comme ailleurs. Le choix du lieu de la vie commune implique souvent la migration de l'un des partenaires vers le pays de l'autre, et donc parfois vers une nouvelle langue - en l'occurrence ici le français - qu'il s'agit de s'approprier. Cette thèse se penche donc sur les liens entre ce contexte a priori positif que représente le couple, et l'appropriation langagière du/de la partenaire alloglotte. De par sa base affective, mais surtout de par le fait que la personne migrante peut compter sur quelqu'un qui est prêt et disposé à l'aider, notamment parce que la migration a été décidée dans le cadre d'un projet commun, le couple favorise la socialisation et donc le contact de la personne nouvellement arrivée avec différentes (variétés de) langues qu'elle s'approprie progressivement : contrairement à beaucoup de migrant-e-s venu-e-s seul-e-s dans un nouveau pays, le/la partenaire alloglotte de ces couples se voit souvent pourvu-e d'une famille (belle-famille et enfants), d'un réseau social (ami-e-s du partenaire francophone), et d'une médiation culturelle et linguistique utile pour accéder notamment au marché de l'emploi, mais également pour comprendre les différents enjeux sociaux dans lesquels elle se voit plongée. Cette médiation affective, linguistique et socio-culturelle proposée par le couple lui permet d'identifier plus aisément des solutions utiles pour dépasser certaines barrières sociales, économiques, administratives, linguistiques et/ou culturelles. Pour autant, le/la partenaire alloglotte du couple linguistiquement mixte est avant tout un acteur social à part entière, qui vit aussi hors du couple et s'aménage - sans doute plus vite, plus facilement et plus naturellement que d'autres migrant-e-s - ses propres modalités de socialisation, en fonction de son vécu et de ses projections pour le futur. Dans une perspective fondamentalement socioconstructiviste du développement humain, l'appropriation langagière est donc ici considérée comme la construction par la personne d'une capacité à agir dans l'espace social et dans la langue. Si l'appropriation a lieu dans et par l'interaction, il s'agit d'investiguer à la fois certains des enjeux de pouvoir dans lesquels s'inscrit cette interaction, et le sens que la personne donne à ces enjeux en fonction de sa subjectivité propre. Le cadre épistémologique de ce travail convoque ainsi des outils issus de la sociologie bourdieusienne et foucaldienne, de la sociolinguistique critique, de la psychologie sociale et de la psycho-sociolinguistique afin d'explorer certaines des limites sociales et psycho-affectives qui influencent les modalités de l'appropriation langagière de la personne alloglotte. La méthode adoptée pour explorer ces deux types de limites s'inscrit dans la tradition de la recherche sur les récits de vie, tout en s'en distanciant sur deux points. D'une part, si le récit de vie considère la personne qui se raconte comme narratrice de sa propre vie, l'autobiographie langagière réflexive met l'accent sur une démarche potentiellement formatrice lui permettant de « penser » sa trajectoire de vie en lien avec son appropriation langagière. D'autre part, les analyses menées sur ces textes écrits et oraux sont tout à la fois thématiques et discursives, puisque la manière dont les événements sont racontés permet de retracer les enjeux souvent ambivalents, parfois contradictoires, qui influencent le sens que la personne donne à son parcours avec le français et la construction de son sentiment de légitimité ou d'illégitimité à vivre en Suisse et en français. En dernière instance, cette thèse défétichise le couple, considéré comme la rencontre de deux subjectivités autour d'un projet de « vivre ensemble », plus que comme un lien romantique et amoureux. Elle défétichise la langue, comprise comme un répertoire langagier forcément plurilingue et hétéroglossique. Elle défétichise l'appropriation langagière, qui apparaît comme un effet collatéral et contextuel de la vie en couple et en société. Elle défétichise enfin le récit de soi, en le poussant vers la réflexion d'un soi ancré dans le social. Si les partenaires des huit couples interrogés ont une voix forte dans l'entier de ce texte, c'est qu'ils et elles existent comme personnes, indépendamment du couple, de la langue, de l'appropriation langagière et de la démarche autobiographique réflexive qui les font se rejoindre dans le contexte particulier de cette recherche mais qui ne constituent que certains de leurs positionnements identitaires et sociaux.
Resumo:
«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-‐variabilité) et entre les traces digitales de donneurs différents (inter-‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-‐variabilité des résidus était significativement plus basse que l'inter-‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-‐variability) and between fingermarks of different donors (inter-‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-‐variability of the fingermark residue was significantly lower than the inter-‐variability, but that it was possible to reduce both kind of variability using different statistical pre-‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.
Resumo:
Characterizing the geological features and structures in three dimensions over inaccessible rock cliffs is needed to assess natural hazards such as rockfalls and rockslides and also to perform investigations aimed at mapping geological contacts and building stratigraphy and fold models. Indeed, the detailed 3D data, such as LiDAR point clouds, allow to study accurately the hazard processes and the structure of geologic features, in particular in vertical and overhanging rock slopes. Thus, 3D geological models have a great potential of being applied to a wide range of geological investigations both in research and applied geology projects, such as mines, tunnels and reservoirs. Recent development of ground-based remote sensing techniques (LiDAR, photogrammetry and multispectral / hyperspectral images) are revolutionizing the acquisition of morphological and geological information. As a consequence, there is a great potential for improving the modeling of geological bodies as well as failure mechanisms and stability conditions by integrating detailed remote data. During the past ten years several large rockfall events occurred along important transportation corridors where millions of people travel every year (Switzerland: Gotthard motorway and railway; Canada: Sea to sky highway between Vancouver and Whistler). These events show that there is still a lack of knowledge concerning the detection of potential rockfalls, making mountain residential settlements and roads highly risky. It is necessary to understand the main factors that destabilize rocky outcrops even if inventories are lacking and if no clear morphological evidences of rockfall activity are observed. In order to increase the possibilities of forecasting potential future landslides, it is crucial to understand the evolution of rock slope stability. Defining the areas theoretically most prone to rockfalls can be particularly useful to simulate trajectory profiles and to generate hazard maps, which are the basis for land use planning in mountainous regions. The most important questions to address in order to assess rockfall hazard are: Where are the most probable sources for future rockfalls located? What are the frequencies of occurrence of these rockfalls? I characterized the fracturing patterns in the field and with LiDAR point clouds. Afterwards, I developed a model to compute the failure mechanisms on terrestrial point clouds in order to assess the susceptibility to rockfalls at the cliff scale. Similar procedures were already available to evaluate the susceptibility to rockfalls based on aerial digital elevation models. This new model gives the possibility to detect the most susceptible rockfall sources with unprecented detail in the vertical and overhanging areas. The results of the computation of the most probable rockfall source areas in granitic cliffs of Yosemite Valley and Mont-Blanc massif were then compared to the inventoried rockfall events to validate the calculation methods. Yosemite Valley was chosen as a test area because it has a particularly strong rockfall activity (about one rockfall every week) which leads to a high rockfall hazard. The west face of the Dru was also chosen for the relevant rockfall activity and especially because it was affected by some of the largest rockfalls that occurred in the Alps during the last 10 years. Moreover, both areas were suitable because of their huge vertical and overhanging cliffs that are difficult to study with classical methods. Limit equilibrium models have been applied to several case studies to evaluate the effects of different parameters on the stability of rockslope areas. The impact of the degradation of rockbridges on the stability of large compartments in the west face of the Dru was assessed using finite element modeling. In particular I conducted a back-analysis of the large rockfall event of 2005 (265'000 m3) by integrating field observations of joint conditions, characteristics of fracturing pattern and results of geomechanical tests on the intact rock. These analyses improved our understanding of the factors that influence the stability of rock compartments and were used to define the most probable future rockfall volumes at the Dru. Terrestrial laser scanning point clouds were also successfully employed to perform geological mapping in 3D, using the intensity of the backscattered signal. Another technique to obtain vertical geological maps is combining triangulated TLS mesh with 2D geological maps. At El Capitan (Yosemite Valley) we built a georeferenced vertical map of the main plutonio rocks that was used to investigate the reasons for preferential rockwall retreat rate. Additional efforts to characterize the erosion rate were made at Monte Generoso (Ticino, southern Switzerland) where I attempted to improve the estimation of long term erosion by taking into account also the volumes of the unstable rock compartments. Eventually, the following points summarize the main out puts of my research: The new model to compute the failure mechanisms and the rockfall susceptibility with 3D point clouds allows to define accurately the most probable rockfall source areas at the cliff scale. The analysis of the rockbridges at the Dru shows the potential of integrating detailed measurements of the fractures in geomechanical models of rockmass stability. The correction of the LiDAR intensity signal gives the possibility to classify a point cloud according to the rock type and then use this information to model complex geologic structures. The integration of these results, on rockmass fracturing and composition, with existing methods can improve rockfall hazard assessments and enhance the interpretation of the evolution of steep rockslopes. -- La caractérisation de la géologie en 3D pour des parois rocheuses inaccessibles est une étape nécessaire pour évaluer les dangers naturels tels que chutes de blocs et glissements rocheux, mais aussi pour réaliser des modèles stratigraphiques ou de structures plissées. Les modèles géologiques 3D ont un grand potentiel pour être appliqués dans une vaste gamme de travaux géologiques dans le domaine de la recherche, mais aussi dans des projets appliqués comme les mines, les tunnels ou les réservoirs. Les développements récents des outils de télédétection terrestre (LiDAR, photogrammétrie et imagerie multispectrale / hyperspectrale) sont en train de révolutionner l'acquisition d'informations géomorphologiques et géologiques. Par conséquence, il y a un grand potentiel d'amélioration pour la modélisation d'objets géologiques, ainsi que des mécanismes de rupture et des conditions de stabilité, en intégrant des données détaillées acquises à distance. Pour augmenter les possibilités de prévoir les éboulements futurs, il est fondamental de comprendre l'évolution actuelle de la stabilité des parois rocheuses. Définir les zones qui sont théoriquement plus propices aux chutes de blocs peut être très utile pour simuler les trajectoires de propagation des blocs et pour réaliser des cartes de danger, qui constituent la base de l'aménagement du territoire dans les régions de montagne. Les questions plus importantes à résoudre pour estimer le danger de chutes de blocs sont : Où se situent les sources plus probables pour les chutes de blocs et éboulement futurs ? Avec quelle fréquence vont se produire ces événements ? Donc, j'ai caractérisé les réseaux de fractures sur le terrain et avec des nuages de points LiDAR. Ensuite, j'ai développé un modèle pour calculer les mécanismes de rupture directement sur les nuages de points pour pouvoir évaluer la susceptibilité au déclenchement de chutes de blocs à l'échelle de la paroi. Les zones sources de chutes de blocs les plus probables dans les parois granitiques de la vallée de Yosemite et du massif du Mont-Blanc ont été calculées et ensuite comparés aux inventaires des événements pour vérifier les méthodes. Des modèles d'équilibre limite ont été appliqués à plusieurs cas d'études pour évaluer les effets de différents paramètres sur la stabilité des parois. L'impact de la dégradation des ponts rocheux sur la stabilité de grands compartiments de roche dans la paroi ouest du Petit Dru a été évalué en utilisant la modélisation par éléments finis. En particulier j'ai analysé le grand éboulement de 2005 (265'000 m3), qui a emporté l'entier du pilier sud-ouest. Dans le modèle j'ai intégré des observations des conditions des joints, les caractéristiques du réseau de fractures et les résultats de tests géoméchaniques sur la roche intacte. Ces analyses ont amélioré l'estimation des paramètres qui influencent la stabilité des compartiments rocheux et ont servi pour définir des volumes probables pour des éboulements futurs. Les nuages de points obtenus avec le scanner laser terrestre ont été utilisés avec succès aussi pour produire des cartes géologiques en 3D, en utilisant l'intensité du signal réfléchi. Une autre technique pour obtenir des cartes géologiques des zones verticales consiste à combiner un maillage LiDAR avec une carte géologique en 2D. A El Capitan (Yosemite Valley) nous avons pu géoréferencer une carte verticale des principales roches plutoniques que j'ai utilisé ensuite pour étudier les raisons d'une érosion préférentielle de certaines zones de la paroi. D'autres efforts pour quantifier le taux d'érosion ont été effectués au Monte Generoso (Ticino, Suisse) où j'ai essayé d'améliorer l'estimation de l'érosion au long terme en prenant en compte les volumes des compartiments rocheux instables. L'intégration de ces résultats, sur la fracturation et la composition de l'amas rocheux, avec les méthodes existantes permet d'améliorer la prise en compte de l'aléa chute de pierres et éboulements et augmente les possibilités d'interprétation de l'évolution des parois rocheuses.
Resumo:
Suite aux graves crises bancaires et financières qui ont secoué la plupart de sociétés occidentales au début des années 1930, on assiste à un foisonnement de réglementations publiques sur les activités bancaires. Parmi les très nombreux pays qui mettent en place des législations bancaires, l'on compte notamment la Suisse et la Belgique. Plus précisément, la loi fédérale suisse sur les banques de novembre 1934 précède de quelques mois l'arrêté royal belge no 185 de juillet 1935. Alors que le contexte historique et l'élaboration respective de chacune de ces réglementations ont déjà fait l'objet de plusieurs analyses, la comparaison et la question des éventuels liens entre ces deux régimes de surveillance bancaire très proches sont encore largement inexplorées. Une analyse détaillée du processus d'élaboration de la réglementation bancaire belge révèle que la loi suisse a joué un rôle de modèle mis en avant en premier chef par les représentants du monde bancaire. Cette influence helvétique a contribué à façonner la régulation bancaire dans une perspective libérale ; elle répondait ainsi à deux besoins essentiels: limiter l'interventionnisme étatique au minimum, et court-circuiter le pouvoir de la banque centrale. Cette parenté de naissance entre les deux lois bancaires trouve son pendant dans les activités clés deux organismes de surveillance créés pour l'occasion, la Commission fédérale des banques à Berne et la Commission bancaire à Bruxelles. Disposant toutes deux de moyens d'actions limités, ces deux instances ont connu des parcours analogues au cours de leurs premières années d'activité.