379 resultados para Modèles logistiques
Resumo:
We all make decisions of varying levels of importance every day. Because making a decision implies that there are alternative choices to be considered, almost all decision involves some conflicts or dissatisfaction. Traditional economic models esteem that a person must weight the positive and negative outcomes of each option, and based on all these inferences, determines which option is the best for that particular situation. However, individuals rather act as irrational agents and tend to deviate from these rational choices. They somewhat evaluate the outcomes' subjective value, namely, when they face a risky choice leading to losses, people are inclined to have some preference for risk over certainty, while when facing a risky choice leading to gains, people often avoid to take risks and choose the most certain option. Yet, it is assumed that decision making is balanced between deliberative and emotional components. Distinct neural regions underpin these factors: the deliberative pathway that corresponds to executive functions, implies the activation of the prefrontal cortex, while the emotional pathway tends to activate the limbic system. These circuits appear to be altered in individuals with ADHD, and result, amongst others, in impaired decision making capacities. Their impulsive and inattentive behaviors are likely to be the cause of their irrational attitude towards risk taking. Still, a possible solution is to administrate these individuals a drug treatment, with the knowledge that it might have several side effects. However, an alternative treatment that relies on cognitive rehabilitation might be appropriate. This project was therefore aimed at investigate whether an intensive working memory training could have a spillover effect on decision making in adults with ADHD and in age-matched healthy controls. We designed a decision making task where the participants had to select an amount to gamble with the chance of 1/3 to win four times the chosen amount, while in the other cases they could loose their investment. Their performances were recorded using electroencephalography prior and after a one-month Dual N-Back training and the possible near and far transfer effects were investigated. Overall, we found that the performance during the gambling task was modulated by personality factors and by the importance of the symptoms at the pretest session. At posttest, we found that all individuals demonstrated an improvement on the Dual N-Back and on similar untrained dimensions. In addition, we discovered that not only the adults with ADHD showed a stable decrease of the symptomatology, as evaluated by the CAARS inventory, but this reduction was also detected in the control samples. In addition, Event-Related Potential (ERP) data are in favor of an change within prefrontal and parietal cortices. These results suggest that cognitive remediation can be effective in adults with ADHD, and in healthy controls. An important complement of this work would be the examination of the data in regard to the attentional networks, which could empower the fact that complex programs covering the remediation of several executive functions' dimensions is not required, a unique working memory training can be sufficient. -- Nous prenons tous chaque jour des décisions ayant des niveaux d'importance variables. Toutes les décisions ont une composante conflictuelle et d'insatisfaction, car prendre une décision implique qu'il y ait des choix alternatifs à considérer. Les modèles économiques traditionnels estiment qu'une personne doit peser les conséquences positives et négatives de chaque option et en se basant sur ces inférences, détermine quelle option est la meilleure dans une situation particulière. Cependant, les individus peuvent dévier de ces choix rationnels. Ils évaluent plutôt les valeur subjective des résultats, c'est-à-dire que lorsqu'ils sont face à un choix risqué pouvant les mener à des pertes, les gens ont tendance à avoir des préférences pour le risque à la place de la certitude, tandis que lorsqu'ils sont face à un choix risqué pouvant les conduire à un gain, ils évitent de prendre des risques et choisissent l'option la plus su^re. De nos jours, il est considéré que la prise de décision est balancée entre des composantes délibératives et émotionnelles. Ces facteurs sont sous-tendus par des régions neurales distinctes: le chemin délibératif, correspondant aux fonctions exécutives, implique l'activation du cortex préfrontal, tandis que le chemin émotionnel active le système limbique. Ces circuits semblent être dysfonctionnels chez les individus ayant un TDAH, et résulte, entre autres, en des capacités de prise de décision altérées. Leurs comportements impulsifs et inattentifs sont probablement la cause de ces attitudes irrationnelles face au risque. Cependant, une solution possible est de leur administrer un traitement médicamenteux, en prenant en compte les potentiels effets secondaires. Un traitement alternatif se reposant sur une réhabilitation cognitive pourrait être appropriée. Le but de ce projet est donc de déterminer si un entrainement intensif de la mémoire de travail peut avoir un effet sur la prise de décision chez des adultes ayant un TDAH et chez des contrôles sains du même âge. Nous avons conçu une tâche de prise de décision dans laquelle les participants devaient sélectionner un montant à jouer en ayant une chance sur trois de gagner quatre fois le montant choisi, alors que dans l'autre cas, ils pouvaient perdre leur investissement. Leurs performances ont été enregistrées en utilisant l'électroencéphalographie avant et après un entrainement d'un mois au Dual N-Back, et nous avons étudié les possibles effets de transfert. Dans l'ensemble, nous avons trouvé au pré-test que les performances au cours du jeu d'argent étaient modulées par les facteurs de personnalité, et par le degré des sympt^omes. Au post-test, nous avons non seulement trouvé que les adultes ayant un TDAH montraient une diminutions stable des symptômes, qui étaient évalués par le questionnaire du CAARS, mais que cette réduction était également perçue dans l'échantillon des contrôles. Les rsultats expérimentaux mesurés à l'aide de l'éléctroencéphalographie suggèrent un changement dans les cortex préfrontaux et pariétaux. Ces résultats suggèrent que la remédiation cognitive est efficace chez les adultes ayant un TDAH, mais produit aussi un effet chez les contrôles sains. Un complément important de ce travail pourrait examiner les données sur l'attention, qui pourraient renforcer l'idée qu'il n'est pas nécessaire d'utiliser des programmes complexes englobant la remédiation de plusieurs dimensions des fonctions exécutives, un simple entraiment de la mémoire de travail devrait suffire.
Resumo:
«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-‐variabilité) et entre les traces digitales de donneurs différents (inter-‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-‐variabilité des résidus était significativement plus basse que l'inter-‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-‐variability) and between fingermarks of different donors (inter-‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-‐variability of the fingermark residue was significantly lower than the inter-‐variability, but that it was possible to reduce both kind of variability using different statistical pre-‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.
Resumo:
Nowadays, Species Distribution Models (SDMs) are a widely used tool. Using different statistical approaches these models reconstruct the realized niche of a species using presence data and a set of variables, often topoclimatic. There utilization range is quite large from understanding single species requirements, to the creation of nature reserve based on species hotspots, or modeling of climate change impact, etc... Most of the time these models are using variables at a resolution of 50km x 50km or 1 km x 1 km. However in some cases these models are used with resolutions below the kilometer scale and thus called high resolution models (100 m x 100 m or 25 m x 25 m). Quite recently a new kind of data has emerged enabling precision up to lm x lm and thus allowing very high resolution modeling. However these new variables are very costly and need an important amount of time to be processed. This is especially the case when these variables are used in complex calculation like models projections over large areas. Moreover the importance of very high resolution data in SDMs has not been assessed yet and is not well understood. Some basic knowledge on what drive species presence-absences is still missing. Indeed, it is not clear whether in mountain areas like the Alps coarse topoclimatic gradients are driving species distributions or if fine scale temperature or topography are more important or if their importance can be neglected when balance to competition or stochasticity. In this thesis I investigated the importance of very high resolution data (2-5m) in species distribution models using either very high resolution topographic, climatic or edaphic variables over a 2000m elevation gradient in the Western Swiss Alps. I also investigated more local responses of these variables for a subset of species living in this area at two precise elvation belts. During this thesis I showed that high resolution data necessitates very good datasets (species and variables for the models) to produce satisfactory results. Indeed, in mountain areas, temperature is the most important factor driving species distribution and needs to be modeled at very fine resolution instead of being interpolated over large surface to produce satisfactory results. Despite the instinctive idea that topographic should be very important at high resolution, results are mitigated. However looking at the importance of variables over a large gradient buffers the importance of the variables. Indeed topographic factors have been shown to be highly important at the subalpine level but their importance decrease at lower elevations. Wether at the mountane level edaphic and land use factors are more important high resolution topographic data is more imporatant at the subalpine level. Finally the biggest improvement in the models happens when edaphic variables are added. Indeed, adding soil variables is of high importance and variables like pH are overpassing the usual topographic variables in SDMs in term of importance in the models. To conclude high resolution is very important in modeling but necessitate very good datasets. Only increasing the resolution of the usual topoclimatic predictors is not sufficient and the use of edaphic predictors has been highlighted as fundamental to produce significantly better models. This is of primary importance, especially if these models are used to reconstruct communities or as basis for biodiversity assessments. -- Ces dernières années, l'utilisation des modèles de distribution d'espèces (SDMs) a continuellement augmenté. Ces modèles utilisent différents outils statistiques afin de reconstruire la niche réalisée d'une espèce à l'aide de variables, notamment climatiques ou topographiques, et de données de présence récoltées sur le terrain. Leur utilisation couvre de nombreux domaines allant de l'étude de l'écologie d'une espèce à la reconstruction de communautés ou à l'impact du réchauffement climatique. La plupart du temps, ces modèles utilisent des occur-rences issues des bases de données mondiales à une résolution plutôt large (1 km ou même 50 km). Certaines bases de données permettent cependant de travailler à haute résolution, par conséquent de descendre en dessous de l'échelle du kilomètre et de travailler avec des résolutions de 100 m x 100 m ou de 25 m x 25 m. Récemment, une nouvelle génération de données à très haute résolution est apparue et permet de travailler à l'échelle du mètre. Les variables qui peuvent être générées sur la base de ces nouvelles données sont cependant très coûteuses et nécessitent un temps conséquent quant à leur traitement. En effet, tout calcul statistique complexe, comme des projections de distribution d'espèces sur de larges surfaces, demande des calculateurs puissants et beaucoup de temps. De plus, les facteurs régissant la distribution des espèces à fine échelle sont encore mal connus et l'importance de variables à haute résolution comme la microtopographie ou la température dans les modèles n'est pas certaine. D'autres facteurs comme la compétition ou la stochasticité naturelle pourraient avoir une influence toute aussi forte. C'est dans ce contexte que se situe mon travail de thèse. J'ai cherché à comprendre l'importance de la haute résolution dans les modèles de distribution d'espèces, que ce soit pour la température, la microtopographie ou les variables édaphiques le long d'un important gradient d'altitude dans les Préalpes vaudoises. J'ai également cherché à comprendre l'impact local de certaines variables potentiellement négligées en raison d'effets confondants le long du gradient altitudinal. Durant cette thèse, j'ai pu monter que les variables à haute résolution, qu'elles soient liées à la température ou à la microtopographie, ne permettent qu'une amélioration substantielle des modèles. Afin de distinguer une amélioration conséquente, il est nécessaire de travailler avec des jeux de données plus importants, tant au niveau des espèces que des variables utilisées. Par exemple, les couches climatiques habituellement interpolées doivent être remplacées par des couches de température modélisées à haute résolution sur la base de données de terrain. Le fait de travailler le long d'un gradient de température de 2000m rend naturellement la température très importante au niveau des modèles. L'importance de la microtopographie est négligeable par rapport à la topographie à une résolution de 25m. Cependant, lorsque l'on regarde à une échelle plus locale, la haute résolution est une variable extrêmement importante dans le milieu subalpin. À l'étage montagnard par contre, les variables liées aux sols et à l'utilisation du sol sont très importantes. Finalement, les modèles de distribution d'espèces ont été particulièrement améliorés par l'addition de variables édaphiques, principalement le pH, dont l'importance supplante ou égale les variables topographique lors de leur ajout aux modèles de distribution d'espèces habituels.
Resumo:
Characterizing the geological features and structures in three dimensions over inaccessible rock cliffs is needed to assess natural hazards such as rockfalls and rockslides and also to perform investigations aimed at mapping geological contacts and building stratigraphy and fold models. Indeed, the detailed 3D data, such as LiDAR point clouds, allow to study accurately the hazard processes and the structure of geologic features, in particular in vertical and overhanging rock slopes. Thus, 3D geological models have a great potential of being applied to a wide range of geological investigations both in research and applied geology projects, such as mines, tunnels and reservoirs. Recent development of ground-based remote sensing techniques (LiDAR, photogrammetry and multispectral / hyperspectral images) are revolutionizing the acquisition of morphological and geological information. As a consequence, there is a great potential for improving the modeling of geological bodies as well as failure mechanisms and stability conditions by integrating detailed remote data. During the past ten years several large rockfall events occurred along important transportation corridors where millions of people travel every year (Switzerland: Gotthard motorway and railway; Canada: Sea to sky highway between Vancouver and Whistler). These events show that there is still a lack of knowledge concerning the detection of potential rockfalls, making mountain residential settlements and roads highly risky. It is necessary to understand the main factors that destabilize rocky outcrops even if inventories are lacking and if no clear morphological evidences of rockfall activity are observed. In order to increase the possibilities of forecasting potential future landslides, it is crucial to understand the evolution of rock slope stability. Defining the areas theoretically most prone to rockfalls can be particularly useful to simulate trajectory profiles and to generate hazard maps, which are the basis for land use planning in mountainous regions. The most important questions to address in order to assess rockfall hazard are: Where are the most probable sources for future rockfalls located? What are the frequencies of occurrence of these rockfalls? I characterized the fracturing patterns in the field and with LiDAR point clouds. Afterwards, I developed a model to compute the failure mechanisms on terrestrial point clouds in order to assess the susceptibility to rockfalls at the cliff scale. Similar procedures were already available to evaluate the susceptibility to rockfalls based on aerial digital elevation models. This new model gives the possibility to detect the most susceptible rockfall sources with unprecented detail in the vertical and overhanging areas. The results of the computation of the most probable rockfall source areas in granitic cliffs of Yosemite Valley and Mont-Blanc massif were then compared to the inventoried rockfall events to validate the calculation methods. Yosemite Valley was chosen as a test area because it has a particularly strong rockfall activity (about one rockfall every week) which leads to a high rockfall hazard. The west face of the Dru was also chosen for the relevant rockfall activity and especially because it was affected by some of the largest rockfalls that occurred in the Alps during the last 10 years. Moreover, both areas were suitable because of their huge vertical and overhanging cliffs that are difficult to study with classical methods. Limit equilibrium models have been applied to several case studies to evaluate the effects of different parameters on the stability of rockslope areas. The impact of the degradation of rockbridges on the stability of large compartments in the west face of the Dru was assessed using finite element modeling. In particular I conducted a back-analysis of the large rockfall event of 2005 (265'000 m3) by integrating field observations of joint conditions, characteristics of fracturing pattern and results of geomechanical tests on the intact rock. These analyses improved our understanding of the factors that influence the stability of rock compartments and were used to define the most probable future rockfall volumes at the Dru. Terrestrial laser scanning point clouds were also successfully employed to perform geological mapping in 3D, using the intensity of the backscattered signal. Another technique to obtain vertical geological maps is combining triangulated TLS mesh with 2D geological maps. At El Capitan (Yosemite Valley) we built a georeferenced vertical map of the main plutonio rocks that was used to investigate the reasons for preferential rockwall retreat rate. Additional efforts to characterize the erosion rate were made at Monte Generoso (Ticino, southern Switzerland) where I attempted to improve the estimation of long term erosion by taking into account also the volumes of the unstable rock compartments. Eventually, the following points summarize the main out puts of my research: The new model to compute the failure mechanisms and the rockfall susceptibility with 3D point clouds allows to define accurately the most probable rockfall source areas at the cliff scale. The analysis of the rockbridges at the Dru shows the potential of integrating detailed measurements of the fractures in geomechanical models of rockmass stability. The correction of the LiDAR intensity signal gives the possibility to classify a point cloud according to the rock type and then use this information to model complex geologic structures. The integration of these results, on rockmass fracturing and composition, with existing methods can improve rockfall hazard assessments and enhance the interpretation of the evolution of steep rockslopes. -- La caractérisation de la géologie en 3D pour des parois rocheuses inaccessibles est une étape nécessaire pour évaluer les dangers naturels tels que chutes de blocs et glissements rocheux, mais aussi pour réaliser des modèles stratigraphiques ou de structures plissées. Les modèles géologiques 3D ont un grand potentiel pour être appliqués dans une vaste gamme de travaux géologiques dans le domaine de la recherche, mais aussi dans des projets appliqués comme les mines, les tunnels ou les réservoirs. Les développements récents des outils de télédétection terrestre (LiDAR, photogrammétrie et imagerie multispectrale / hyperspectrale) sont en train de révolutionner l'acquisition d'informations géomorphologiques et géologiques. Par conséquence, il y a un grand potentiel d'amélioration pour la modélisation d'objets géologiques, ainsi que des mécanismes de rupture et des conditions de stabilité, en intégrant des données détaillées acquises à distance. Pour augmenter les possibilités de prévoir les éboulements futurs, il est fondamental de comprendre l'évolution actuelle de la stabilité des parois rocheuses. Définir les zones qui sont théoriquement plus propices aux chutes de blocs peut être très utile pour simuler les trajectoires de propagation des blocs et pour réaliser des cartes de danger, qui constituent la base de l'aménagement du territoire dans les régions de montagne. Les questions plus importantes à résoudre pour estimer le danger de chutes de blocs sont : Où se situent les sources plus probables pour les chutes de blocs et éboulement futurs ? Avec quelle fréquence vont se produire ces événements ? Donc, j'ai caractérisé les réseaux de fractures sur le terrain et avec des nuages de points LiDAR. Ensuite, j'ai développé un modèle pour calculer les mécanismes de rupture directement sur les nuages de points pour pouvoir évaluer la susceptibilité au déclenchement de chutes de blocs à l'échelle de la paroi. Les zones sources de chutes de blocs les plus probables dans les parois granitiques de la vallée de Yosemite et du massif du Mont-Blanc ont été calculées et ensuite comparés aux inventaires des événements pour vérifier les méthodes. Des modèles d'équilibre limite ont été appliqués à plusieurs cas d'études pour évaluer les effets de différents paramètres sur la stabilité des parois. L'impact de la dégradation des ponts rocheux sur la stabilité de grands compartiments de roche dans la paroi ouest du Petit Dru a été évalué en utilisant la modélisation par éléments finis. En particulier j'ai analysé le grand éboulement de 2005 (265'000 m3), qui a emporté l'entier du pilier sud-ouest. Dans le modèle j'ai intégré des observations des conditions des joints, les caractéristiques du réseau de fractures et les résultats de tests géoméchaniques sur la roche intacte. Ces analyses ont amélioré l'estimation des paramètres qui influencent la stabilité des compartiments rocheux et ont servi pour définir des volumes probables pour des éboulements futurs. Les nuages de points obtenus avec le scanner laser terrestre ont été utilisés avec succès aussi pour produire des cartes géologiques en 3D, en utilisant l'intensité du signal réfléchi. Une autre technique pour obtenir des cartes géologiques des zones verticales consiste à combiner un maillage LiDAR avec une carte géologique en 2D. A El Capitan (Yosemite Valley) nous avons pu géoréferencer une carte verticale des principales roches plutoniques que j'ai utilisé ensuite pour étudier les raisons d'une érosion préférentielle de certaines zones de la paroi. D'autres efforts pour quantifier le taux d'érosion ont été effectués au Monte Generoso (Ticino, Suisse) où j'ai essayé d'améliorer l'estimation de l'érosion au long terme en prenant en compte les volumes des compartiments rocheux instables. L'intégration de ces résultats, sur la fracturation et la composition de l'amas rocheux, avec les méthodes existantes permet d'améliorer la prise en compte de l'aléa chute de pierres et éboulements et augmente les possibilités d'interprétation de l'évolution des parois rocheuses.
Resumo:
Dans cette thèse, nous étudions les évolutions des systèmes d'information. Nous nous intéressons plus particulièrement à l'étude des facteurs déclencheurs d'évolution, ce qu'ils représentent et comment ils permettent d'en apprendre d'avantage sur le cycle de vie des systèmes d'information. Pour ce faire, nous avons développé un cadre conceptuel pour l'étude des évolutions qui tient compte non seulement des facteurs déclencheurs d'évolution, mais également de la nature des activités entreprises pour évoluer. Nous avons suivi une approche Design Science pour la conception de ce cadre conceptuel. Selon cette approche, nous avons développé itérativement le cadre conceptuel en l'instanciant puis en l'évaluant afin de raffiner sa conception. Ceci nous a permis de faire plusieurs contributions tant pratiques que théoriques. La première contribution théorique de cette recherche est l'identification de 4 facteurs principaux déclenchant les évolutions. Ces facteurs sont des éléments issus de domaines généralement étudiés séparément. Le cadre conceptuel les rassemble dans un même outil pour l'étude des évolutions. Une autre contribution théorique est l'étude du cycle de vie des systèmes selon ces facteurs. En effet, l'utilisation répétée du cadre conceptuel pour la qualification des évolutions met en lumière les principales motivations des évolutions lors de chaque étape du cycle de vie. En comparant les évolutions de plusieurs systèmes, il devient possible de mettre en évidence des modèles spécifiques d'évolution des systèmes. Concernant les contributions pratiques, la principale concerne le pilotage de l'évolution. Pour un gestionnaire de système d'information, l'application du cadre conceptuel permet de connaître précisément l'allocation réelle des ressources pour une évolution ainsi que la localisation du système dans son cycle de vie. Le cadre conceptuel peut donc aider les gestionnaires dans la planification et la stratégie d'évolution du système. Les modèles d'évolution, identifiés suite à l'application du cadre conceptuel, sont également une aide précieuse pour définir la stratégie de pilotage et les activités à entreprendre lors de la planification des évolutions. Finalement, le cadre conceptuel a fourni les bases nécessaires à l'élaboration d'un tableau de bord pour le suivi du cycle de vie et le pilotage de l'évolution des systèmes d'information.
Resumo:
S'inscrivant dans le sous-domaine interdisciplinaire de l'Urban Political Ecology (UPE), cette thèse dresse une géo-histoire foucauldienne de l'eau urbaine, particulièrement l'eau en réseau, en Suisse entre 1850 et nos jours. Plus précisément, il s'agit d'une étude des modes d'exercice du pouvoir (les formes de gouvernementalité) et de leurs outils (les technologies de pouvoir), focalisée sur l'eau en réseau et menée à l'aide d'une méthode archéogénéalogique. Cette recherche apporte des contributions théoriques et empiriques à l'UPE. Du côté théorique, elle propose l'adoption d'une approche foucauldienne dans le domaine de l'UPE, elle définit le potentiel et les implications de son éthique de la recherche et elle décrit certains parmi les principaux concepts, théories et méthodes foucauldiens mobilisables au sein de l'UPE de l'eau. Du côté empirique, elle applique l'approche proposée à une série d'études de cas, permettant de dresser la géo-histoire mentionnée plus haut mais aussi de nuancer le cadre théorique et méthodologique, de l'enrichir et d'en pointer les limites. A travers l'étude d'archives de la presse locale, les trois premières études de cas montrent que deux formes de gouvernementalité ont coexisté en Suisse pendant la période étudiée, à savoir le biopouvoir et la gouvernementalité néolibérale. Cependant, ces deux formes de gouvernementalité dévient considérablement des modèles proposés par Michel Foucault. Par exemple, des technologies de pouvoir permettant le gouvernement à distance relatives à la santé de la population ont fait leur apparition dès la deuxième moitié du dix-neuvième siècle, ce qui interroge la définition du biopouvoir telle qu'elle avait initialement été proposée par Michel Foucault. La dernière étude de cas est centrée sur l'époque contemporaine. Elle indique qu'à l'heure actuelle une production centralisée d'argumentaires destinés aux citoyens-consommateurs a lieu dans des espaces non-statutaires d'inspiration néolibérale (les soft spaces). Cette production discursive centralisée se révèle efficace et contribue, paradoxalement, au maintien d'un modèle helvétique décentralisé et démocratique en matière d'eau du robinet. Des recherches ultérieures pourraient permettre de tester la pertinence de l'approche foucauldienne adoptée ici dans d'autres cas d'étude, de nuancer et enrichir ultérieurement le cadre théorique et d'améliorer la méthode utilisée.
Resumo:
[Table des matières] 1. Introduction (Problématique, Aperçu global) - 2. Méthode (Revue systématique de la littérature, Analyse du cadre réglementaire, Consultation des experts, Analyse des perceptions et attentes de la population générale, des patients et des professionnels de santé en matière d'utilisation du matériel biologique, Définition de l'outil pour la recherche quantitative en population générale) - 3. Revue de littérature (Tendance générale, Questions controversées, Perception de la population générale et des patients, Synthèse) - 4. Cadre légal et réglementaire relatif à la recherche sur l'être humain (Le cadre international, Le cadre fédéral, Le cadre du canton de Vaud, Synthèse) - 5. Consultation des experts (Etat des lieux de la pratique, Perception de la situation par les experts) - 6. Perceptions et attentes de la population générale, des patients et des professionnels de santé en matière d'utilisation de matériel biologique - 7. Définition de l'outil pour la recherche quantitative en population générale - 8. Poster : Conférence suisse de santé publique - 9. Bibliographie - 10. Annexes (Evolution de la recherche systématique de la littérature, Vignettes présentées aux participants des focus group, Synthèse des focus group, Recommandations de G. Helgesson pour l'utilisation des échantillons, Etudes populationnelles à l'étranger, Modèles de l'ASSM, Informations et consentements à la biobanque de Lausanne, Questionnaire)
Resumo:
Les syndromes de déficiences cérébrales en créatine (CCDS) sont dus à des mutations dans les gènes GATM et G AMT (codant pour les enzymes AGAT et G AMT de la voie de synthèse de créatine) ainsi que SLC6A8 (transporteur de créatine), et génèrent une absence ou une très forte baisse de créatine (Cr) dans le cerveau, mesurée par spectroscopic de résonance magnétique. Les patients CCDS développent des handicaps neurologiques sévères. Les patients AGAT et GAMT peuvent être traités avec des doses importantes de Cr, mais gardent dans la plupart des cas des séquelles neurologiques irréversibles. Aucun traitement efficace n'existe à ce jour pour la déficience en SLC6A8. Bien que de nombreux modèles aient été développés pour comprendre la Cr cérébrale en conditions physiologiques, les pathomécanismes des CCDS ne sont pas encore compris. Des souris transgéniques pour les gènes Gatm, Gamt et Slc6a8 ont été générées, mais elles ne miment que partiellement la pathologie humaine. Parmi les CCDS, la déficience en GAMT est la plus sévère, en raison de l'accumulation cérébrale de l'intermédiaire guanidinoacétate (GAA). Alors que la toxicité cérébrale du GAA a été étudiée par exposition directe au GAA d'animaux adultes sains, les mécanismes de la toxicité du GAA en condition de déficience en GAMT dans le cerveau en développement sont encore inconnus. Le but de ce projet était donc de développer un modèle de déficience en GAMT dans des cultures 3D primaires de cellules nerveuses de rat en agrégats par knock-down du gène GAMT, en utilisant un virus adéno-associé (AAV) induisant le mécanisme d'interférence à l'ARN (RNAi). Le virus scAAV2, à la multiplicité d'infection de 1000, s'est révélé le plus efficace pour transduire tous les types de cellules nerveuses des cultures (neurones, astrocytes, oligodendrocytes), et générer un knock-down maximal de la protéine GAMT de 85% (jour in vitro 18). Cette déficience partielle en GAMT s'est révélée insuffisante pour générer une déficience en Cr, mais a causé l'accumulation attendue de GAA, à des doses comparables aux niveaux observés dans le LCR des patients GAMT. Le GAA a induit une croissance axonale anarchique accompagnée d'une baisse de l'apoptose naturelle, suivis par une induction tardive de mort cellulaire non-apoptotique. Le co-traitement par la Cr a prévenu tous les effets toxiques du GAA. Ce travail montre que l'accumulation de GAA en absence de déficience en Cr est suffisante pour affecter le développement du tissu nerveux, et suggère que des formes de déficiences en GAMT supplémentaires, ne présentant pas de déficiences en Cr, pourraient être découvertes par mesure du GAA, en particulier à travers les programmes récemment proposés de dépistage néonatal de la déficience en GAMT. -- Cerebral creatine deficiency syndromes (CCDS) are caused by mutations in the genes GATM and GAMT (respectively coding for the two enzymes of the creatine synthetic pathway, AGAT and GAMT) as well as SLC6A8 (creatine transporter), and lead to the absence or very strong decrease of creatine (Cr) in the brain when measured by magnetic resonance spectroscopy. Affected patients show severe neurological impairments. While AGAT and GAMT deficient patients can be treated with high dosages of Cr, most remain with irreversible brain sequelae. No treatment has been successful so far for SLC6A8 deficiency. While many models have helped understanding the cerebral Cr pathways in physiological conditions, the pathomechanisms underlying CCDS are yet to be elucidated. Transgenic mice carrying mutations in the Gatm, Gamt and Slc6a8 genes have been developed, but only partially mimic the human pathology. Among CCDS, GAMT deficiency is the most severe, due to the CNS accumulation of the guanidinoacetate (GAA) intermediate. While brain toxicity of GAA has been explored through direct GAA exposure of adult healthy animals, the mechanisms underlying GAA toxicity in GAMT deficiency conditions on the developing CNS are yet unknown. The aim of this project was thus to develop and characterize a GAMT deficiency model in developing brain cells by gene knockdown, by adeno-associated virus (AAV)-driven RNA interference (RNAi) in rat 3D organotypic primary brain cell cultures in aggregates. scAAV2 with a multiplicity of infection of 1000 was shown as the most efficient serotype, was able to transduce all brain cell types (neurons, astrocytes, oligodendrocytes) and to induce a maximal GAMT protein knockdown of 85% (day in vitro 18). Metabolite analysis showed that partial GAMT knockdown was insufficient to induce Cr deficiency but generated the awaited GAA accumulation at concentrations comparable to the levels observed in cerebrospinal fluid of GAMT-deficient patients. Accumulated GAA induced axonal hypersprouting paralleled with inhibition of natural apoptosis, followed by a later induction in non-apoptotic cell death. Cr supplementation led to the prevention of all GAA-induced toxic effects. This work shows that GAA accumulation without Cr deficiency is sufficient to affect CNS development, and suggests that additional partial GAMT deficiencies, which may not show the classical brain Cr deficiency, may be discovered through GAA measurement including by recently proposed neonatal screening programs for GAMT deficiency.
Resumo:
Cette thèse vise une meilleure compréhension des enjeux et rapports de force liés au plurilinguisme dans une institution publique. Son terrain d'investigation est constitué par l'Administration fédérale suisse, propice pour étudier les questions ayant trait à la représentativité linguistique, l'idéologie langagière, la politique linguistique et les pratiques linguistiques sur le lieu de travail. La théorie de la bureaucratie représentative constitue le point de départ de mon cadre théorique. Selon celle-ci, les administrations publiques devraient représenter tous les groupes sociaux de leur pays. Leur personnel devrait « refléter » la diversité de cette population pour des raisons d'égalité, de légitimité et de stabilité politique. Cependant, le critère linguistique est rarement étudié dans ce cadre. Afin de combler ce manque de théorie, je me suis tournée vers la théorie politique, la sociologie des organisations et la sociolinguistique critique. Mes données sont constituées de 49 entretiens semi-directifs menés dans deux offices fédéraux, ainsi que des textes officiels réglementant le plurilinguisme et la représentativité linguistique à l'Administration fédérale. J'ai ainsi confronté les conceptions des collaborateurs sur le plurilinguisme - exprimées dans les entretiens - avec celles de l'institution, reflétées dans sa politique linguistique. Mon analyse a démontré que, selon les acteurs ou le contexte, les enjeux liés au plurilinguisme se situent à des niveaux distincts : lorsque l'institution s'efforce de créer un lieu de travail affichant l'égalité des langues officielles, les collaborateurs perçoivent le plurilinguisme comme un élément parmi d'autres qui influence l'efficacité de leur travail. L'intérêt de cette recherche se situe tout aussi bien au niveau pratique que théorique: d'une part, mes observations définissent certaines «barrières» empêchant les pratiques linguistiques plurilingues et une représentativité linguistique proportionnelle à celle du pays. Elles contribuent ainsi à une réflexion concrète sur la manière de les surmonter. D'autre part, l'application au plurilinguisme, dans une institution publique, de concepts et modèles théoriques issus de disciplines variées permet d'ouvrir un regard neuf sur ceux-ci.
Resumo:
Une première étude menée par les auteures de cet article dans le cadre de l'Unité de médecine des violences du Centre hospitalier universitaire vaudois et de l'Institut universitaire romand de santé au travail avait montré que les conséquences à long terme d'une agression physique au travail pouvaient être sérieuses et le soutien de l'employeur était primordial pour surmonter les conséquences d'un tel événement. Une étude complémentaire, dont les résultats sont présentés ici, avait pour but de formuler des propositions concrètes de mesures de prévention de la violence physique au travail dans le contexte suisse. Les résultats sont présentés dans un «fil rouge» qui se présente sous forme de check-lists de recommandations concrètes. Ce travail s'appuie sur l'analyse et la synthèse d'une abondante documentation, ainsi que sur des entretiens auprès de personnes-ressource et des témoignages de victimes d'agressions physiques au travail. En conclusion, il apparaît que les mesures existantes en Suisse sont encore trop souvent partielles et fragmentées, et se limitent souvent à des offres de formation ou d'information ponctuelles. Alors même que les organisations sont de plus en plus confrontées aux agressions envers le personnel, il y a lieu de les sensibiliser à la nécessité d'instaurer de véritables dispositifs de prévention inscrits dans la durée et s'appuyant sur des modèles éprouvés, opérant aux trois niveaux de prévention primaire, secondaire et tertiaire.
Resumo:
La psychiatrie (la clinique psychopathologique en général) connaît en ce début de XXIe siècle une situation complexe. Coincée entre naturalisation de l'esprit et constructionnisme social, la possibilité de contribuer à la constitution d'une science autonome qui traite de la souffrance psychique est aujourd'hui problématique. Les nombreux réductionnismes à l'oeuvre, de type nosographique, diagnostique, psychopharmacologique, les concurrences épistémologiques et les dogmatismes des modèles psychothérapeutiques, dessinent un paysage où s'engager à poursuivre la voie d'une psychiatrie spécifiquement humaine et articulée aux sciences naturelles relève de la gageure. C'est le défi de l'anthropologie clinique. Deux articles lui sont consacrés. Dans ce premier article, après avoir fait le constat de certaines impasses qui menacent la psychiatrie contemporaine et rappelé les origines du projet de l'anthropologique clinique, les auteurs présentent les deux démarches qui la fondent, chacune opérant dans un esprit d'interdisciplinarité : l'anthropopsychiatrie de Jacques Schotte et l'anthropologie sémiotique formulée par Jean Lassègue, Victor Rosenthal et Yves-Marie Visetti. Un deuxième article déploiera le potentiel intégratif d'un tel paradigme, constitué sur la base de ces deux démarches conjointes. Psychiatry (psychopathology clinics in general) is in a complex situation at the beginning of 21st century. Wedged between mind naturalization and social constructionism, the possibility of contributing to the establishment of an autonomous science that deals with mental suffering is problematic today. The many nosographic, diagnostic, psychopharmacological reductionisms at work as well as the competing epistemologies and the dogmatisms of psychotherapeutic models draw a challenging landscape for those following the path of a specifically human psychiatry articulated to natural sciences. This is the challenge of clinical anthropology which is presented in two parts. In the first part, after examining several dead ends which threaten contemporary psychiatry and pointing out the origins of the clinical anthropology project, the authors present its two foundational approaches. Each approach driven by a spirit of interdisciplinarity : Jacques Schotte's anthropopsychiatry and the semiotic anthropology as formulated by Jean Lassègue, Victor Rosenthal and Yves-Marie Visetti. A second part will describe the integrative potential of such a paradigm, based on these two joint approaches.
Resumo:
Dans le néphron distal sensible à l'aldostérone, le récepteur aux minéralocorticoïdes (RM) et le récepteur aux glucocorticoids (RG) sont exprimés et peuvent être liés et activés par l'aldostérone et le Cortisol, respectivement. La réabsorption rénale de sodium est principalement contrôlée par le RM. Cependant, des modèles expérimentaux in vitro et in vivo suggèrent que le RG pourrait également jouer un rôle dans le transport rénal du sodium. Afin d'étudier l'implication du RG et/ou du RM exprimés dans les cellules épithéliales adultes dans le transport rénal du sodium, nous avons généré deux modèles de souris, dans lesquelles l'expression du RG (Nr3c1Pax8/LC1) ou du RM (Nr3c2Pax8/LC1) peut être abolie de manière inductible et cela spécifiquement dans les tubules rénaux. Les souris déficientes pour le gène du RM survivent mais développent un phénotype sévère de PHA-1, caractérisé par un retard de croissance, une augmentation des niveaux urinaires de Na+, une diminution de la concentration du Na+ dans le plasma, une hyperkaliémie et une augmentation des niveaux d'aldostérone plasmatique. Ce phénotype empire et devient létal lorsque les souris sont nourries avec une diète déficiente en sodium. Les niveaux d'expression en protéine de NCC, de la forme phosphorylée de NCC et de aENaC sont diminués, alors que l'expression en ARN messager et en protéine du RG est augmentée. Une diète riche en Na+ et pauvre en K+ ne corrige pas la concentration élevée d'aldostérone dans le plasma pour la ramener à des niveaux conformes, mais est suffisante pour corriger la perte de poids et les niveaux anormaux des électrolytes dans le plasma et l'urine. -- In the aldosterone-sensitive distal nephron, both the mineralocorticoid (MR) and the glucocorticoid (GR) receptor are expressed. They can be bound and activated by aldosterone and Cortisol, respectively. Renal Na+ reabsorption is mainly controlled by MR. However, in vitro and in vivo experimental models suggest that GR may play a role in renal Na+ transport. Therefore, to investigate the implication of MR and/or GR in adult epithelial cells in renal sodium transport, we generated inducible renal tubule- specific MR (Nr3c2Pax8/LC1) and GR (Nr3c1Pax8/LC1) knockout mice. MR-deficient mice survived but developed a severe PHA-1 phenotype with failure to thrive, higher urinary Na+, decreased plasma Na+ levels, hyperkalemia and higher levels of plasma aldosterone. This phenotype further worsened and became lethal under a sodium-deficient diet. NCC protein expression and its phosphorylated form, as well as aENaC protein level were downregulated, whereas the mRNA and protein expression of GR was increased. A diet rich in Na+and low in K+ did not normalize plasma aldosterone to control levels, but was sufficient to restore body weight, plasma and urinary electrolytes. Upon switch to a Na+-deficient diet, GR-mutant mice exhibited transient increased urinary Na+ and decreased K+ levels, with transitory higher plasma K+ concentration preceded by a significant increase in plasma aldosterone levels within the 12 hours following diet switch. We found no difference in urinary aldosterone levels, plasma Na+ concentration and plasma corticosterone levels. Moreover, NHE3, NKCC2, NCC
Resumo:
Understanding and quantifying seismic energy dissipation, which manifests itself in terms of velocity dispersion and attenuation, in fluid-saturated porous rocks is of considerable interest, since it offers the perspective of extracting information with regard to the elastic and hydraulic rock properties. There is increasing evidence to suggest that wave-induced fluid flow, or simply WIFF, is the dominant underlying physical mechanism governing these phenomena throughout the seismic, sonic, and ultrasonic frequency ranges. This mechanism, which can prevail at the microscopic, mesoscopic, and macroscopic scale ranges, operates through viscous energy dissipation in response to fluid pressure gradients and inertial effects induced by the passing wavefield. In the first part of this thesis, we present an analysis of broad-band multi-frequency sonic log data from a borehole penetrating water-saturated unconsolidated glacio-fluvial sediments. An inherent complication arising in the interpretation of the observed P-wave attenuation and velocity dispersion is, however, that the relative importance of WIFF at the various scales is unknown and difficult to unravel. An important generic result of our work is that the levels of attenuation and velocity dispersion due to the presence of mesoscopic heterogeneities in water-saturated unconsolidated clastic sediments are expected to be largely negligible. Conversely, WIFF at the macroscopic scale allows for explaining most of the considered data while refinements provided by including WIFF at the microscopic scale in the analysis are locally meaningful. Using a Monte-Carlo-type inversion approach, we compare the capability of the different models describing WIFF at the macroscopic and microscopic scales with regard to their ability to constrain the dry frame elastic moduli and the permeability as well as their local probability distribution. In the second part of this thesis, we explore the issue of determining the size of a representative elementary volume (REV) arising in the numerical upscaling procedures of effective seismic velocity dispersion and attenuation of heterogeneous media. To this end, we focus on a set of idealized synthetic rock samples characterized by the presence of layers, fractures or patchy saturation in the mesocopic scale range. These scenarios are highly pertinent because they tend to be associated with very high levels of velocity dispersion and attenuation caused by WIFF in the mesoscopic scale range. The problem of determining the REV size for generic heterogeneous rocks is extremely complex and entirely unexplored in the given context. In this pilot study, we have therefore focused on periodic media, which assures the inherent self- similarity of the considered samples regardless of their size and thus simplifies the problem to a systematic analysis of the dependence of the REV size on the applied boundary conditions in the numerical simulations. Our results demonstrate that boundary condition effects are absent for layered media and negligible in the presence of patchy saturation, thus resulting in minimum REV sizes. Conversely, strong boundary condition effects arise in the presence of a periodic distribution of finite-length fractures, thus leading to large REV sizes. In the third part of the thesis, we propose a novel effective poroelastic model for periodic media characterized by mesoscopic layering, which accounts for WIFF at both the macroscopic and mesoscopic scales as well as for the anisotropy associated with the layering. Correspondingly, this model correctly predicts the existence of the fast and slow P-waves as well as quasi and pure S-waves for any direction of wave propagation as long as the corresponding wavelengths are much larger than the layer thicknesses. The primary motivation for this work is that, for formations of intermediate to high permeability, such as, for example, unconsolidated sediments, clean sandstones, or fractured rocks, these two WIFF mechanisms may prevail at similar frequencies. This scenario, which can be expected rather common, cannot be accounted for by existing models for layered porous media. Comparisons of analytical solutions of the P- and S-wave phase velocities and inverse quality factors for wave propagation perpendicular to the layering with those obtained from numerical simulations based on a ID finite-element solution of the poroelastic equations of motion show very good agreement as long as the assumption of long wavelengths remains valid. A limitation of the proposed model is its inability to account for inertial effects in mesoscopic WIFF when both WIFF mechanisms prevail at similar frequencies. Our results do, however, also indicate that the associated error is likely to be relatively small, as, even at frequencies at which both inertial and scattering effects are expected to be at play, the proposed model provides a solution that is remarkably close to its numerical benchmark. -- Comprendre et pouvoir quantifier la dissipation d'énergie sismique qui se traduit par la dispersion et l'atténuation des vitesses dans les roches poreuses et saturées en fluide est un intérêt primordial pour obtenir des informations à propos des propriétés élastique et hydraulique des roches en question. De plus en plus d'études montrent que le déplacement relatif du fluide par rapport au solide induit par le passage de l'onde (wave induced fluid flow en anglais, dont on gardera ici l'abréviation largement utilisée, WIFF), représente le principal mécanisme physique qui régit ces phénomènes, pour la gamme des fréquences sismiques, sonique et jusqu'à l'ultrasonique. Ce mécanisme, qui prédomine aux échelles microscopique, mésoscopique et macroscopique, est lié à la dissipation d'énergie visqueuse résultant des gradients de pression de fluide et des effets inertiels induits par le passage du champ d'onde. Dans la première partie de cette thèse, nous présentons une analyse de données de diagraphie acoustique à large bande et multifréquences, issues d'un forage réalisé dans des sédiments glaciaux-fluviaux, non-consolidés et saturés en eau. La difficulté inhérente à l'interprétation de l'atténuation et de la dispersion des vitesses des ondes P observées, est que l'importance des WIFF aux différentes échelles est inconnue et difficile à quantifier. Notre étude montre que l'on peut négliger le taux d'atténuation et de dispersion des vitesses dû à la présence d'hétérogénéités à l'échelle mésoscopique dans des sédiments clastiques, non- consolidés et saturés en eau. A l'inverse, les WIFF à l'échelle macroscopique expliquent la plupart des données, tandis que les précisions apportées par les WIFF à l'échelle microscopique sont localement significatives. En utilisant une méthode d'inversion du type Monte-Carlo, nous avons comparé, pour les deux modèles WIFF aux échelles macroscopique et microscopique, leur capacité à contraindre les modules élastiques de la matrice sèche et la perméabilité ainsi que leur distribution de probabilité locale. Dans une seconde partie de cette thèse, nous cherchons une solution pour déterminer la dimension d'un volume élémentaire représentatif (noté VER). Cette problématique se pose dans les procédures numériques de changement d'échelle pour déterminer l'atténuation effective et la dispersion effective de la vitesse sismique dans un milieu hétérogène. Pour ce faire, nous nous concentrons sur un ensemble d'échantillons de roches synthétiques idéalisés incluant des strates, des fissures, ou une saturation partielle à l'échelle mésoscopique. Ces scénarios sont hautement pertinents, car ils sont associés à un taux très élevé d'atténuation et de dispersion des vitesses causé par les WIFF à l'échelle mésoscopique. L'enjeu de déterminer la dimension d'un VER pour une roche hétérogène est très complexe et encore inexploré dans le contexte actuel. Dans cette étude-pilote, nous nous focalisons sur des milieux périodiques, qui assurent l'autosimilarité des échantillons considérés indépendamment de leur taille. Ainsi, nous simplifions le problème à une analyse systématique de la dépendance de la dimension des VER aux conditions aux limites appliquées. Nos résultats indiquent que les effets des conditions aux limites sont absents pour un milieu stratifié, et négligeables pour un milieu à saturation partielle : cela résultant à des dimensions petites des VER. Au contraire, de forts effets des conditions aux limites apparaissent dans les milieux présentant une distribution périodique de fissures de taille finie : cela conduisant à de grandes dimensions des VER. Dans la troisième partie de cette thèse, nous proposons un nouveau modèle poro- élastique effectif, pour les milieux périodiques caractérisés par une stratification mésoscopique, qui prendra en compte les WIFF à la fois aux échelles mésoscopique et macroscopique, ainsi que l'anisotropie associée à ces strates. Ce modèle prédit alors avec exactitude l'existence des ondes P rapides et lentes ainsi que les quasis et pures ondes S, pour toutes les directions de propagation de l'onde, tant que la longueur d'onde correspondante est bien plus grande que l'épaisseur de la strate. L'intérêt principal de ce travail est que, pour les formations à perméabilité moyenne à élevée, comme, par exemple, les sédiments non- consolidés, les grès ou encore les roches fissurées, ces deux mécanismes d'WIFF peuvent avoir lieu à des fréquences similaires. Or, ce scénario, qui est assez commun, n'est pas décrit par les modèles existants pour les milieux poreux stratifiés. Les comparaisons des solutions analytiques des vitesses des ondes P et S et de l'atténuation de la propagation des ondes perpendiculaires à la stratification, avec les solutions obtenues à partir de simulations numériques en éléments finis, fondées sur une solution obtenue en 1D des équations poro- élastiques, montrent un très bon accord, tant que l'hypothèse des grandes longueurs d'onde reste valable. Il y a cependant une limitation de ce modèle qui est liée à son incapacité à prendre en compte les effets inertiels dans les WIFF mésoscopiques quand les deux mécanismes d'WIFF prédominent à des fréquences similaires. Néanmoins, nos résultats montrent aussi que l'erreur associée est relativement faible, même à des fréquences à laquelle sont attendus les deux effets d'inertie et de diffusion, indiquant que le modèle proposé fournit une solution qui est remarquablement proche de sa référence numérique.
Resumo:
La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.
Resumo:
Contexte : Après les maladies cardiovasculaires, le cancer est la deuxième cause de mortalité en Suisse. Les cancers de la prostate, du sein, du côlon-rectum, du col utérin et le mélanome cutané représentent, en termes d'incidence et de mortalité, la moitié du fardeau du cancer en Suisse. Des moyens de prévention primaire et/ou secondaire contribuent à réduire la fréquence et la mortalité due à ces cinq cancers. Cependant, l'attitude face à la prévention diffère selon les individus et dépend de multiples facteurs socio-économiques, environnementaux, culturels et comportementaux. Objectif : Évaluer la fréquence et identifier les déterminants des pratiques de dépistage des cancers de la prostate, du sein, du côlon-rectum, du col utérin et du mélanome cutané en Suisse. Matériel et méthode : Les données utilisées sont issues de l'Enquête suisse sur la santé 2007. Une pondération statistique permet d'extrapoler les résultats à la population générale. Des modèles de régression logistique multivariée ont été construits afin de décrire l'association entre pratique du dépistage et facteurs sociodémographiques, style de vie, état de santé, recours aux prestations de santé et soutien social. Résultats : En 2007, selon les méthodes et fréquences recommandées en Suisse et dans les tranches d'âge concernées, 49% des hommes ont effectué un dépistage du cancer prostatique, 13% du cancer colorectal et 33,7% du mélanome cutané. Chez les femmes, 17,9% ont réalisé un dépistage du cancer du sein, 8,7% du cancer colorectal, 36,8% du mélanome cutané et 50,2% du cancer du col utérin. Globalement et pour les deux sexes, l'âge, le lieu de résidence, le niveau de formation, la classe socioprofessionnelle, le revenu d'équivalence du ménage, la pratique d'autres dépistages des cancers, le nombre de visites médicales et de jours d'hospitalisation au cours des 12 mois précédents déterminent le recours au dépistage des cancers d'intérêt. Chez les hommes, la présence d'un médecin de famille et, chez les femmes, la franchise annuelle, influencent aussi la pratique du dépistage. Conclusion : Les prévalences du dépistage varient notablement selon le type de cancer. Le recours aux dépistages des cancers dépend de facteurs sociodémographiques, de l'utilisation des services de santé et de la pratique d'autres dépistages, mais peu, voire pas, du style de vie, de l'état de santé et de la sécurité et du soutien sociaux. Les facteurs identifiés sont souvent communs aux différents types de cancer et rendent possible l'établissement d'un profil général d'utilisateurs du dépistage des cancers. Les stratégies visant à améliorer la compliance aux examens de dépistage devraient considérer les facteurs qui en déterminent le recours et mieux cibler les segments de la population qui les sous-utilisent.