999 resultados para Antibiotiques--Brevets d’invention--Modèles économétriques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse met en lumière les relations réciproques entre les deux artefacts‐clés de la culture russe et mondiale du XXe siècle : la théorie du carnaval et de la ménippée de Mikhaïl Bakhtine et le dernier roman de Mikhaïl Boulgakov. Les chercheurs n'ont pas tardé à remarquer leur étonnante synthonie après leur sortie de l'oubli qui a eu lieu presque en même temps et qui a été marquée par la publication des ouvrages de Bakhtine Problèmes de la poétique de Dostoïevski (1963), L'oeuvre de François Rabelais et la culture populaire au Moyen Âge et sous la Renaissance (1965) et par la parution du roman de Boulgakov Le Maître et Marguerite (1966-1967). C'est déjà dans la postface de la première édition du roman que Le Maître et Marguerite reçoit le nom de «ménippée de Bakhtine». Un tel rapprochement entre la théorie de Bakhtine et le roman de Boulgakov s'explique par leur intérêt simultané pour différentes manifestations de la poétique du carnaval qui s'appuie sur des traditions portant l'empreinte des conceptions du temps cyclique et de l'éternel retour par le biais de la mort, propres aux rituels agraires de l'époque archaïque et aux fêtes du Nouvel An de l'Antiquité. A partir du début du XXe siècle et jusqu'aux années 40, la notion de carnavalesque en Russie est un ensemble d'idées unique, un concept doté d'un caractère d'universalité culturelle de son temps: le carnavalesque attire l'attention non seulement de Bakhtine et de Boulgakov, mais aussi de presque tous les modernistes russes et de certains philologues de l'époque. Dans notre travail, l'étude de la ressemblance des approches du problème du carnaval chez Boulgakov et chez Bakhtine s'organise selon deux axes de recherche. Le premier est lié à la théorie des genres moderne et à son développement dans la philosophie de Bakhtine. C'est dans ce contexte que nous examinons la notion antique de la satire ménippée (ou de la ménippée), considérée par Bakhtine en tant que genre littéraire qui reflète le mieux la poétique du carnaval. C'est également ce contexte qui nous permet d'analyser l'évolution de la théorie du carnaval et de la ménippée chez Bakhtine depuis ses travaux des années 30 jusqu'à la parution du « quatrième chapitre célèbre » de la deuxième édition de son ouvrage consacré à Dostoïevski. Le même contexte sert à délimiter l'emploi de la théorie du carnaval et de la ménippée dans la critique littéraire et à déterminer l'efficacité de cet outil théorique que nous utilisons lors de l'analyse du roman Le Maître et Marguerite. Le second axe de notre recherche est lié à l'étude des traditions du carnaval, à l'examen de leurs sources mythologiques et de leurs sources relatives aux mystères. Ces sources sont considérées telles qu'elles se présentent dans les manières de concevoir le carnaval propres à Bakhtine et à Boulgakov que nous avons nommées, respectivement, le carnaval de Bakhtine et le carnaval de Boulgakov. La reconstruction du carnaval de Bakhtine a permis de mettre en évidence plusieurs approches du thème du carnaval présentes dans ses ouvrages. La distinction de ces approches est d'autant plus importante que son oubli peut causer de fausses interprétations des idées de Bakhtine exprimées dans L'oeuvre de François Rabelais et mener à des critiques injustes de son auteur. Nous avons également tenu compte des théories avec lesquelles dialogue la philosophie du carnaval de Bakhtine : nous l'avons examinée en relation avec des études de la fête, du carnaval et du sacrifice caractéristiques du paysage scientifique des premières décennies du XXe siècle. Nous avons également comparée la philosophie du carnaval aux théories des philosophes européens contemporains de Bakhtine qui se sont intéressés à la même problématique, mais qu'on n'a pas l'habitude de mentionner à ce propos. En ce qui concerne l'étude du roman Le Maître et Marguerite et l'analyse du carnaval de Boulgakov, nous avons tâché d'unir deux approches. D'une part, nous avons mis au jour les sources de l'auteur ; d'autre part, nous avons examiné cette oeuvre dans une perspective dont le but est d'aider à comprendre la spécificité du carnavalesque chez Boulgakov en s'appuyant sur des travaux d'éminents spécialistes du folklore, de la mytho-archéologie, de la mytho-critique et de la sémiotique moderne. Notre recherche a permis de mettre en évidence les manifestations caractéristiques de la poétique du carnaval dans Le Maître et Marguerite, auparavant négligées par la critique. En outre, nous avons prêté une attention particulière à la façon dont Boulgakov utilise des éléments et modèles mythologiques « pré-carnavalesques » qui n'ont pas été étudiés de manière suffisante dans l'oeuvre de Bakhtine. Cela nous a permis non seulement de voir sous un autre jour les scènes-clés du roman, mais aussi d'avoir la connaissance plus approfondie du carnaval de Bakhtine à travers le carnaval de Boulgakov.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We all make decisions of varying levels of importance every day. Because making a decision implies that there are alternative choices to be considered, almost all decision involves some conflicts or dissatisfaction. Traditional economic models esteem that a person must weight the positive and negative outcomes of each option, and based on all these inferences, determines which option is the best for that particular situation. However, individuals rather act as irrational agents and tend to deviate from these rational choices. They somewhat evaluate the outcomes' subjective value, namely, when they face a risky choice leading to losses, people are inclined to have some preference for risk over certainty, while when facing a risky choice leading to gains, people often avoid to take risks and choose the most certain option. Yet, it is assumed that decision making is balanced between deliberative and emotional components. Distinct neural regions underpin these factors: the deliberative pathway that corresponds to executive functions, implies the activation of the prefrontal cortex, while the emotional pathway tends to activate the limbic system. These circuits appear to be altered in individuals with ADHD, and result, amongst others, in impaired decision making capacities. Their impulsive and inattentive behaviors are likely to be the cause of their irrational attitude towards risk taking. Still, a possible solution is to administrate these individuals a drug treatment, with the knowledge that it might have several side effects. However, an alternative treatment that relies on cognitive rehabilitation might be appropriate. This project was therefore aimed at investigate whether an intensive working memory training could have a spillover effect on decision making in adults with ADHD and in age-matched healthy controls. We designed a decision making task where the participants had to select an amount to gamble with the chance of 1/3 to win four times the chosen amount, while in the other cases they could loose their investment. Their performances were recorded using electroencephalography prior and after a one-month Dual N-Back training and the possible near and far transfer effects were investigated. Overall, we found that the performance during the gambling task was modulated by personality factors and by the importance of the symptoms at the pretest session. At posttest, we found that all individuals demonstrated an improvement on the Dual N-Back and on similar untrained dimensions. In addition, we discovered that not only the adults with ADHD showed a stable decrease of the symptomatology, as evaluated by the CAARS inventory, but this reduction was also detected in the control samples. In addition, Event-Related Potential (ERP) data are in favor of an change within prefrontal and parietal cortices. These results suggest that cognitive remediation can be effective in adults with ADHD, and in healthy controls. An important complement of this work would be the examination of the data in regard to the attentional networks, which could empower the fact that complex programs covering the remediation of several executive functions' dimensions is not required, a unique working memory training can be sufficient. -- Nous prenons tous chaque jour des décisions ayant des niveaux d'importance variables. Toutes les décisions ont une composante conflictuelle et d'insatisfaction, car prendre une décision implique qu'il y ait des choix alternatifs à considérer. Les modèles économiques traditionnels estiment qu'une personne doit peser les conséquences positives et négatives de chaque option et en se basant sur ces inférences, détermine quelle option est la meilleure dans une situation particulière. Cependant, les individus peuvent dévier de ces choix rationnels. Ils évaluent plutôt les valeur subjective des résultats, c'est-à-dire que lorsqu'ils sont face à un choix risqué pouvant les mener à des pertes, les gens ont tendance à avoir des préférences pour le risque à la place de la certitude, tandis que lorsqu'ils sont face à un choix risqué pouvant les conduire à un gain, ils évitent de prendre des risques et choisissent l'option la plus su^re. De nos jours, il est considéré que la prise de décision est balancée entre des composantes délibératives et émotionnelles. Ces facteurs sont sous-tendus par des régions neurales distinctes: le chemin délibératif, correspondant aux fonctions exécutives, implique l'activation du cortex préfrontal, tandis que le chemin émotionnel active le système limbique. Ces circuits semblent être dysfonctionnels chez les individus ayant un TDAH, et résulte, entre autres, en des capacités de prise de décision altérées. Leurs comportements impulsifs et inattentifs sont probablement la cause de ces attitudes irrationnelles face au risque. Cependant, une solution possible est de leur administrer un traitement médicamenteux, en prenant en compte les potentiels effets secondaires. Un traitement alternatif se reposant sur une réhabilitation cognitive pourrait être appropriée. Le but de ce projet est donc de déterminer si un entrainement intensif de la mémoire de travail peut avoir un effet sur la prise de décision chez des adultes ayant un TDAH et chez des contrôles sains du même âge. Nous avons conçu une tâche de prise de décision dans laquelle les participants devaient sélectionner un montant à jouer en ayant une chance sur trois de gagner quatre fois le montant choisi, alors que dans l'autre cas, ils pouvaient perdre leur investissement. Leurs performances ont été enregistrées en utilisant l'électroencéphalographie avant et après un entrainement d'un mois au Dual N-Back, et nous avons étudié les possibles effets de transfert. Dans l'ensemble, nous avons trouvé au pré-test que les performances au cours du jeu d'argent étaient modulées par les facteurs de personnalité, et par le degré des sympt^omes. Au post-test, nous avons non seulement trouvé que les adultes ayant un TDAH montraient une diminutions stable des symptômes, qui étaient évalués par le questionnaire du CAARS, mais que cette réduction était également perçue dans l'échantillon des contrôles. Les rsultats expérimentaux mesurés à l'aide de l'éléctroencéphalographie suggèrent un changement dans les cortex préfrontaux et pariétaux. Ces résultats suggèrent que la remédiation cognitive est efficace chez les adultes ayant un TDAH, mais produit aussi un effet chez les contrôles sains. Un complément important de ce travail pourrait examiner les données sur l'attention, qui pourraient renforcer l'idée qu'il n'est pas nécessaire d'utiliser des programmes complexes englobant la remédiation de plusieurs dimensions des fonctions exécutives, un simple entraiment de la mémoire de travail devrait suffire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-­‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-­‐variabilité) et entre les traces digitales de donneurs différents (inter-­‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-­‐variabilité des résidus était significativement plus basse que l'inter-­‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-­‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-­‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-­‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-­‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-­‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-­‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-­‐variability) and between fingermarks of different donors (inter-­‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-­‐variability of the fingermark residue was significantly lower than the inter-­‐variability, but that it was possible to reduce both kind of variability using different statistical pre-­‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-­‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-­‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-­‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-­‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-­‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nowadays, Species Distribution Models (SDMs) are a widely used tool. Using different statistical approaches these models reconstruct the realized niche of a species using presence data and a set of variables, often topoclimatic. There utilization range is quite large from understanding single species requirements, to the creation of nature reserve based on species hotspots, or modeling of climate change impact, etc... Most of the time these models are using variables at a resolution of 50km x 50km or 1 km x 1 km. However in some cases these models are used with resolutions below the kilometer scale and thus called high resolution models (100 m x 100 m or 25 m x 25 m). Quite recently a new kind of data has emerged enabling precision up to lm x lm and thus allowing very high resolution modeling. However these new variables are very costly and need an important amount of time to be processed. This is especially the case when these variables are used in complex calculation like models projections over large areas. Moreover the importance of very high resolution data in SDMs has not been assessed yet and is not well understood. Some basic knowledge on what drive species presence-absences is still missing. Indeed, it is not clear whether in mountain areas like the Alps coarse topoclimatic gradients are driving species distributions or if fine scale temperature or topography are more important or if their importance can be neglected when balance to competition or stochasticity. In this thesis I investigated the importance of very high resolution data (2-5m) in species distribution models using either very high resolution topographic, climatic or edaphic variables over a 2000m elevation gradient in the Western Swiss Alps. I also investigated more local responses of these variables for a subset of species living in this area at two precise elvation belts. During this thesis I showed that high resolution data necessitates very good datasets (species and variables for the models) to produce satisfactory results. Indeed, in mountain areas, temperature is the most important factor driving species distribution and needs to be modeled at very fine resolution instead of being interpolated over large surface to produce satisfactory results. Despite the instinctive idea that topographic should be very important at high resolution, results are mitigated. However looking at the importance of variables over a large gradient buffers the importance of the variables. Indeed topographic factors have been shown to be highly important at the subalpine level but their importance decrease at lower elevations. Wether at the mountane level edaphic and land use factors are more important high resolution topographic data is more imporatant at the subalpine level. Finally the biggest improvement in the models happens when edaphic variables are added. Indeed, adding soil variables is of high importance and variables like pH are overpassing the usual topographic variables in SDMs in term of importance in the models. To conclude high resolution is very important in modeling but necessitate very good datasets. Only increasing the resolution of the usual topoclimatic predictors is not sufficient and the use of edaphic predictors has been highlighted as fundamental to produce significantly better models. This is of primary importance, especially if these models are used to reconstruct communities or as basis for biodiversity assessments. -- Ces dernières années, l'utilisation des modèles de distribution d'espèces (SDMs) a continuellement augmenté. Ces modèles utilisent différents outils statistiques afin de reconstruire la niche réalisée d'une espèce à l'aide de variables, notamment climatiques ou topographiques, et de données de présence récoltées sur le terrain. Leur utilisation couvre de nombreux domaines allant de l'étude de l'écologie d'une espèce à la reconstruction de communautés ou à l'impact du réchauffement climatique. La plupart du temps, ces modèles utilisent des occur-rences issues des bases de données mondiales à une résolution plutôt large (1 km ou même 50 km). Certaines bases de données permettent cependant de travailler à haute résolution, par conséquent de descendre en dessous de l'échelle du kilomètre et de travailler avec des résolutions de 100 m x 100 m ou de 25 m x 25 m. Récemment, une nouvelle génération de données à très haute résolution est apparue et permet de travailler à l'échelle du mètre. Les variables qui peuvent être générées sur la base de ces nouvelles données sont cependant très coûteuses et nécessitent un temps conséquent quant à leur traitement. En effet, tout calcul statistique complexe, comme des projections de distribution d'espèces sur de larges surfaces, demande des calculateurs puissants et beaucoup de temps. De plus, les facteurs régissant la distribution des espèces à fine échelle sont encore mal connus et l'importance de variables à haute résolution comme la microtopographie ou la température dans les modèles n'est pas certaine. D'autres facteurs comme la compétition ou la stochasticité naturelle pourraient avoir une influence toute aussi forte. C'est dans ce contexte que se situe mon travail de thèse. J'ai cherché à comprendre l'importance de la haute résolution dans les modèles de distribution d'espèces, que ce soit pour la température, la microtopographie ou les variables édaphiques le long d'un important gradient d'altitude dans les Préalpes vaudoises. J'ai également cherché à comprendre l'impact local de certaines variables potentiellement négligées en raison d'effets confondants le long du gradient altitudinal. Durant cette thèse, j'ai pu monter que les variables à haute résolution, qu'elles soient liées à la température ou à la microtopographie, ne permettent qu'une amélioration substantielle des modèles. Afin de distinguer une amélioration conséquente, il est nécessaire de travailler avec des jeux de données plus importants, tant au niveau des espèces que des variables utilisées. Par exemple, les couches climatiques habituellement interpolées doivent être remplacées par des couches de température modélisées à haute résolution sur la base de données de terrain. Le fait de travailler le long d'un gradient de température de 2000m rend naturellement la température très importante au niveau des modèles. L'importance de la microtopographie est négligeable par rapport à la topographie à une résolution de 25m. Cependant, lorsque l'on regarde à une échelle plus locale, la haute résolution est une variable extrêmement importante dans le milieu subalpin. À l'étage montagnard par contre, les variables liées aux sols et à l'utilisation du sol sont très importantes. Finalement, les modèles de distribution d'espèces ont été particulièrement améliorés par l'addition de variables édaphiques, principalement le pH, dont l'importance supplante ou égale les variables topographique lors de leur ajout aux modèles de distribution d'espèces habituels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Characterizing the geological features and structures in three dimensions over inaccessible rock cliffs is needed to assess natural hazards such as rockfalls and rockslides and also to perform investigations aimed at mapping geological contacts and building stratigraphy and fold models. Indeed, the detailed 3D data, such as LiDAR point clouds, allow to study accurately the hazard processes and the structure of geologic features, in particular in vertical and overhanging rock slopes. Thus, 3D geological models have a great potential of being applied to a wide range of geological investigations both in research and applied geology projects, such as mines, tunnels and reservoirs. Recent development of ground-based remote sensing techniques (LiDAR, photogrammetry and multispectral / hyperspectral images) are revolutionizing the acquisition of morphological and geological information. As a consequence, there is a great potential for improving the modeling of geological bodies as well as failure mechanisms and stability conditions by integrating detailed remote data. During the past ten years several large rockfall events occurred along important transportation corridors where millions of people travel every year (Switzerland: Gotthard motorway and railway; Canada: Sea to sky highway between Vancouver and Whistler). These events show that there is still a lack of knowledge concerning the detection of potential rockfalls, making mountain residential settlements and roads highly risky. It is necessary to understand the main factors that destabilize rocky outcrops even if inventories are lacking and if no clear morphological evidences of rockfall activity are observed. In order to increase the possibilities of forecasting potential future landslides, it is crucial to understand the evolution of rock slope stability. Defining the areas theoretically most prone to rockfalls can be particularly useful to simulate trajectory profiles and to generate hazard maps, which are the basis for land use planning in mountainous regions. The most important questions to address in order to assess rockfall hazard are: Where are the most probable sources for future rockfalls located? What are the frequencies of occurrence of these rockfalls? I characterized the fracturing patterns in the field and with LiDAR point clouds. Afterwards, I developed a model to compute the failure mechanisms on terrestrial point clouds in order to assess the susceptibility to rockfalls at the cliff scale. Similar procedures were already available to evaluate the susceptibility to rockfalls based on aerial digital elevation models. This new model gives the possibility to detect the most susceptible rockfall sources with unprecented detail in the vertical and overhanging areas. The results of the computation of the most probable rockfall source areas in granitic cliffs of Yosemite Valley and Mont-Blanc massif were then compared to the inventoried rockfall events to validate the calculation methods. Yosemite Valley was chosen as a test area because it has a particularly strong rockfall activity (about one rockfall every week) which leads to a high rockfall hazard. The west face of the Dru was also chosen for the relevant rockfall activity and especially because it was affected by some of the largest rockfalls that occurred in the Alps during the last 10 years. Moreover, both areas were suitable because of their huge vertical and overhanging cliffs that are difficult to study with classical methods. Limit equilibrium models have been applied to several case studies to evaluate the effects of different parameters on the stability of rockslope areas. The impact of the degradation of rockbridges on the stability of large compartments in the west face of the Dru was assessed using finite element modeling. In particular I conducted a back-analysis of the large rockfall event of 2005 (265'000 m3) by integrating field observations of joint conditions, characteristics of fracturing pattern and results of geomechanical tests on the intact rock. These analyses improved our understanding of the factors that influence the stability of rock compartments and were used to define the most probable future rockfall volumes at the Dru. Terrestrial laser scanning point clouds were also successfully employed to perform geological mapping in 3D, using the intensity of the backscattered signal. Another technique to obtain vertical geological maps is combining triangulated TLS mesh with 2D geological maps. At El Capitan (Yosemite Valley) we built a georeferenced vertical map of the main plutonio rocks that was used to investigate the reasons for preferential rockwall retreat rate. Additional efforts to characterize the erosion rate were made at Monte Generoso (Ticino, southern Switzerland) where I attempted to improve the estimation of long term erosion by taking into account also the volumes of the unstable rock compartments. Eventually, the following points summarize the main out puts of my research: The new model to compute the failure mechanisms and the rockfall susceptibility with 3D point clouds allows to define accurately the most probable rockfall source areas at the cliff scale. The analysis of the rockbridges at the Dru shows the potential of integrating detailed measurements of the fractures in geomechanical models of rockmass stability. The correction of the LiDAR intensity signal gives the possibility to classify a point cloud according to the rock type and then use this information to model complex geologic structures. The integration of these results, on rockmass fracturing and composition, with existing methods can improve rockfall hazard assessments and enhance the interpretation of the evolution of steep rockslopes. -- La caractérisation de la géologie en 3D pour des parois rocheuses inaccessibles est une étape nécessaire pour évaluer les dangers naturels tels que chutes de blocs et glissements rocheux, mais aussi pour réaliser des modèles stratigraphiques ou de structures plissées. Les modèles géologiques 3D ont un grand potentiel pour être appliqués dans une vaste gamme de travaux géologiques dans le domaine de la recherche, mais aussi dans des projets appliqués comme les mines, les tunnels ou les réservoirs. Les développements récents des outils de télédétection terrestre (LiDAR, photogrammétrie et imagerie multispectrale / hyperspectrale) sont en train de révolutionner l'acquisition d'informations géomorphologiques et géologiques. Par conséquence, il y a un grand potentiel d'amélioration pour la modélisation d'objets géologiques, ainsi que des mécanismes de rupture et des conditions de stabilité, en intégrant des données détaillées acquises à distance. Pour augmenter les possibilités de prévoir les éboulements futurs, il est fondamental de comprendre l'évolution actuelle de la stabilité des parois rocheuses. Définir les zones qui sont théoriquement plus propices aux chutes de blocs peut être très utile pour simuler les trajectoires de propagation des blocs et pour réaliser des cartes de danger, qui constituent la base de l'aménagement du territoire dans les régions de montagne. Les questions plus importantes à résoudre pour estimer le danger de chutes de blocs sont : Où se situent les sources plus probables pour les chutes de blocs et éboulement futurs ? Avec quelle fréquence vont se produire ces événements ? Donc, j'ai caractérisé les réseaux de fractures sur le terrain et avec des nuages de points LiDAR. Ensuite, j'ai développé un modèle pour calculer les mécanismes de rupture directement sur les nuages de points pour pouvoir évaluer la susceptibilité au déclenchement de chutes de blocs à l'échelle de la paroi. Les zones sources de chutes de blocs les plus probables dans les parois granitiques de la vallée de Yosemite et du massif du Mont-Blanc ont été calculées et ensuite comparés aux inventaires des événements pour vérifier les méthodes. Des modèles d'équilibre limite ont été appliqués à plusieurs cas d'études pour évaluer les effets de différents paramètres sur la stabilité des parois. L'impact de la dégradation des ponts rocheux sur la stabilité de grands compartiments de roche dans la paroi ouest du Petit Dru a été évalué en utilisant la modélisation par éléments finis. En particulier j'ai analysé le grand éboulement de 2005 (265'000 m3), qui a emporté l'entier du pilier sud-ouest. Dans le modèle j'ai intégré des observations des conditions des joints, les caractéristiques du réseau de fractures et les résultats de tests géoméchaniques sur la roche intacte. Ces analyses ont amélioré l'estimation des paramètres qui influencent la stabilité des compartiments rocheux et ont servi pour définir des volumes probables pour des éboulements futurs. Les nuages de points obtenus avec le scanner laser terrestre ont été utilisés avec succès aussi pour produire des cartes géologiques en 3D, en utilisant l'intensité du signal réfléchi. Une autre technique pour obtenir des cartes géologiques des zones verticales consiste à combiner un maillage LiDAR avec une carte géologique en 2D. A El Capitan (Yosemite Valley) nous avons pu géoréferencer une carte verticale des principales roches plutoniques que j'ai utilisé ensuite pour étudier les raisons d'une érosion préférentielle de certaines zones de la paroi. D'autres efforts pour quantifier le taux d'érosion ont été effectués au Monte Generoso (Ticino, Suisse) où j'ai essayé d'améliorer l'estimation de l'érosion au long terme en prenant en compte les volumes des compartiments rocheux instables. L'intégration de ces résultats, sur la fracturation et la composition de l'amas rocheux, avec les méthodes existantes permet d'améliorer la prise en compte de l'aléa chute de pierres et éboulements et augmente les possibilités d'interprétation de l'évolution des parois rocheuses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, nous étudions les évolutions des systèmes d'information. Nous nous intéressons plus particulièrement à l'étude des facteurs déclencheurs d'évolution, ce qu'ils représentent et comment ils permettent d'en apprendre d'avantage sur le cycle de vie des systèmes d'information. Pour ce faire, nous avons développé un cadre conceptuel pour l'étude des évolutions qui tient compte non seulement des facteurs déclencheurs d'évolution, mais également de la nature des activités entreprises pour évoluer. Nous avons suivi une approche Design Science pour la conception de ce cadre conceptuel. Selon cette approche, nous avons développé itérativement le cadre conceptuel en l'instanciant puis en l'évaluant afin de raffiner sa conception. Ceci nous a permis de faire plusieurs contributions tant pratiques que théoriques. La première contribution théorique de cette recherche est l'identification de 4 facteurs principaux déclenchant les évolutions. Ces facteurs sont des éléments issus de domaines généralement étudiés séparément. Le cadre conceptuel les rassemble dans un même outil pour l'étude des évolutions. Une autre contribution théorique est l'étude du cycle de vie des systèmes selon ces facteurs. En effet, l'utilisation répétée du cadre conceptuel pour la qualification des évolutions met en lumière les principales motivations des évolutions lors de chaque étape du cycle de vie. En comparant les évolutions de plusieurs systèmes, il devient possible de mettre en évidence des modèles spécifiques d'évolution des systèmes. Concernant les contributions pratiques, la principale concerne le pilotage de l'évolution. Pour un gestionnaire de système d'information, l'application du cadre conceptuel permet de connaître précisément l'allocation réelle des ressources pour une évolution ainsi que la localisation du système dans son cycle de vie. Le cadre conceptuel peut donc aider les gestionnaires dans la planification et la stratégie d'évolution du système. Les modèles d'évolution, identifiés suite à l'application du cadre conceptuel, sont également une aide précieuse pour définir la stratégie de pilotage et les activités à entreprendre lors de la planification des évolutions. Finalement, le cadre conceptuel a fourni les bases nécessaires à l'élaboration d'un tableau de bord pour le suivi du cycle de vie et le pilotage de l'évolution des systèmes d'information.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

S'inscrivant dans le sous-domaine interdisciplinaire de l'Urban Political Ecology (UPE), cette thèse dresse une géo-histoire foucauldienne de l'eau urbaine, particulièrement l'eau en réseau, en Suisse entre 1850 et nos jours. Plus précisément, il s'agit d'une étude des modes d'exercice du pouvoir (les formes de gouvernementalité) et de leurs outils (les technologies de pouvoir), focalisée sur l'eau en réseau et menée à l'aide d'une méthode archéogénéalogique. Cette recherche apporte des contributions théoriques et empiriques à l'UPE. Du côté théorique, elle propose l'adoption d'une approche foucauldienne dans le domaine de l'UPE, elle définit le potentiel et les implications de son éthique de la recherche et elle décrit certains parmi les principaux concepts, théories et méthodes foucauldiens mobilisables au sein de l'UPE de l'eau. Du côté empirique, elle applique l'approche proposée à une série d'études de cas, permettant de dresser la géo-histoire mentionnée plus haut mais aussi de nuancer le cadre théorique et méthodologique, de l'enrichir et d'en pointer les limites. A travers l'étude d'archives de la presse locale, les trois premières études de cas montrent que deux formes de gouvernementalité ont coexisté en Suisse pendant la période étudiée, à savoir le biopouvoir et la gouvernementalité néolibérale. Cependant, ces deux formes de gouvernementalité dévient considérablement des modèles proposés par Michel Foucault. Par exemple, des technologies de pouvoir permettant le gouvernement à distance relatives à la santé de la population ont fait leur apparition dès la deuxième moitié du dix-neuvième siècle, ce qui interroge la définition du biopouvoir telle qu'elle avait initialement été proposée par Michel Foucault. La dernière étude de cas est centrée sur l'époque contemporaine. Elle indique qu'à l'heure actuelle une production centralisée d'argumentaires destinés aux citoyens-consommateurs a lieu dans des espaces non-statutaires d'inspiration néolibérale (les soft spaces). Cette production discursive centralisée se révèle efficace et contribue, paradoxalement, au maintien d'un modèle helvétique décentralisé et démocratique en matière d'eau du robinet. Des recherches ultérieures pourraient permettre de tester la pertinence de l'approche foucauldienne adoptée ici dans d'autres cas d'étude, de nuancer et enrichir ultérieurement le cadre théorique et d'améliorer la méthode utilisée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Table des matières] 1. Introduction (Problématique, Aperçu global) - 2. Méthode (Revue systématique de la littérature, Analyse du cadre réglementaire, Consultation des experts, Analyse des perceptions et attentes de la population générale, des patients et des professionnels de santé en matière d'utilisation du matériel biologique, Définition de l'outil pour la recherche quantitative en population générale) - 3. Revue de littérature (Tendance générale, Questions controversées, Perception de la population générale et des patients, Synthèse) - 4. Cadre légal et réglementaire relatif à la recherche sur l'être humain (Le cadre international, Le cadre fédéral, Le cadre du canton de Vaud, Synthèse) - 5. Consultation des experts (Etat des lieux de la pratique, Perception de la situation par les experts) - 6. Perceptions et attentes de la population générale, des patients et des professionnels de santé en matière d'utilisation de matériel biologique - 7. Définition de l'outil pour la recherche quantitative en population générale - 8. Poster : Conférence suisse de santé publique - 9. Bibliographie - 10. Annexes (Evolution de la recherche systématique de la littérature, Vignettes présentées aux participants des focus group, Synthèse des focus group, Recommandations de G. Helgesson pour l'utilisation des échantillons, Etudes populationnelles à l'étranger, Modèles de l'ASSM, Informations et consentements à la biobanque de Lausanne, Questionnaire)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les syndromes de déficiences cérébrales en créatine (CCDS) sont dus à des mutations dans les gènes GATM et G AMT (codant pour les enzymes AGAT et G AMT de la voie de synthèse de créatine) ainsi que SLC6A8 (transporteur de créatine), et génèrent une absence ou une très forte baisse de créatine (Cr) dans le cerveau, mesurée par spectroscopic de résonance magnétique. Les patients CCDS développent des handicaps neurologiques sévères. Les patients AGAT et GAMT peuvent être traités avec des doses importantes de Cr, mais gardent dans la plupart des cas des séquelles neurologiques irréversibles. Aucun traitement efficace n'existe à ce jour pour la déficience en SLC6A8. Bien que de nombreux modèles aient été développés pour comprendre la Cr cérébrale en conditions physiologiques, les pathomécanismes des CCDS ne sont pas encore compris. Des souris transgéniques pour les gènes Gatm, Gamt et Slc6a8 ont été générées, mais elles ne miment que partiellement la pathologie humaine. Parmi les CCDS, la déficience en GAMT est la plus sévère, en raison de l'accumulation cérébrale de l'intermédiaire guanidinoacétate (GAA). Alors que la toxicité cérébrale du GAA a été étudiée par exposition directe au GAA d'animaux adultes sains, les mécanismes de la toxicité du GAA en condition de déficience en GAMT dans le cerveau en développement sont encore inconnus. Le but de ce projet était donc de développer un modèle de déficience en GAMT dans des cultures 3D primaires de cellules nerveuses de rat en agrégats par knock-down du gène GAMT, en utilisant un virus adéno-associé (AAV) induisant le mécanisme d'interférence à l'ARN (RNAi). Le virus scAAV2, à la multiplicité d'infection de 1000, s'est révélé le plus efficace pour transduire tous les types de cellules nerveuses des cultures (neurones, astrocytes, oligodendrocytes), et générer un knock-down maximal de la protéine GAMT de 85% (jour in vitro 18). Cette déficience partielle en GAMT s'est révélée insuffisante pour générer une déficience en Cr, mais a causé l'accumulation attendue de GAA, à des doses comparables aux niveaux observés dans le LCR des patients GAMT. Le GAA a induit une croissance axonale anarchique accompagnée d'une baisse de l'apoptose naturelle, suivis par une induction tardive de mort cellulaire non-apoptotique. Le co-traitement par la Cr a prévenu tous les effets toxiques du GAA. Ce travail montre que l'accumulation de GAA en absence de déficience en Cr est suffisante pour affecter le développement du tissu nerveux, et suggère que des formes de déficiences en GAMT supplémentaires, ne présentant pas de déficiences en Cr, pourraient être découvertes par mesure du GAA, en particulier à travers les programmes récemment proposés de dépistage néonatal de la déficience en GAMT. -- Cerebral creatine deficiency syndromes (CCDS) are caused by mutations in the genes GATM and GAMT (respectively coding for the two enzymes of the creatine synthetic pathway, AGAT and GAMT) as well as SLC6A8 (creatine transporter), and lead to the absence or very strong decrease of creatine (Cr) in the brain when measured by magnetic resonance spectroscopy. Affected patients show severe neurological impairments. While AGAT and GAMT deficient patients can be treated with high dosages of Cr, most remain with irreversible brain sequelae. No treatment has been successful so far for SLC6A8 deficiency. While many models have helped understanding the cerebral Cr pathways in physiological conditions, the pathomechanisms underlying CCDS are yet to be elucidated. Transgenic mice carrying mutations in the Gatm, Gamt and Slc6a8 genes have been developed, but only partially mimic the human pathology. Among CCDS, GAMT deficiency is the most severe, due to the CNS accumulation of the guanidinoacetate (GAA) intermediate. While brain toxicity of GAA has been explored through direct GAA exposure of adult healthy animals, the mechanisms underlying GAA toxicity in GAMT deficiency conditions on the developing CNS are yet unknown. The aim of this project was thus to develop and characterize a GAMT deficiency model in developing brain cells by gene knockdown, by adeno-associated virus (AAV)-driven RNA interference (RNAi) in rat 3D organotypic primary brain cell cultures in aggregates. scAAV2 with a multiplicity of infection of 1000 was shown as the most efficient serotype, was able to transduce all brain cell types (neurons, astrocytes, oligodendrocytes) and to induce a maximal GAMT protein knockdown of 85% (day in vitro 18). Metabolite analysis showed that partial GAMT knockdown was insufficient to induce Cr deficiency but generated the awaited GAA accumulation at concentrations comparable to the levels observed in cerebrospinal fluid of GAMT-deficient patients. Accumulated GAA induced axonal hypersprouting paralleled with inhibition of natural apoptosis, followed by a later induction in non-apoptotic cell death. Cr supplementation led to the prevention of all GAA-induced toxic effects. This work shows that GAA accumulation without Cr deficiency is sufficient to affect CNS development, and suggests that additional partial GAMT deficiencies, which may not show the classical brain Cr deficiency, may be discovered through GAA measurement including by recently proposed neonatal screening programs for GAMT deficiency.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neutrophil extracellular traps (NETs) formation is a cell death mechanism characterized by the extrusion of DNA fibers associated to antimicrobial peptides such as LL37. Beside their antimicrobial role, NETs are highly immunogenic by their ability to activate plasmacytoid dendritic cells (pDCs). In this context, LL37 binds to NET-DNA, leading to endosomal Toll¬like-receptor (TLR) 9 binding, resulting in Interferon alpha (IFNa) production by pDCs. Uncontrolled pDC activation by NETs is an important player in the pathogenesis of autoimmune disease such as Lupus Erythematosus (LE); however the regulation of NET- driven pDC activation is poorly characterized. Olfactomedin 4 (OLFM4) is a granule protein present in a subset of circulating neutrophils and was shown to bear anti-inflammatory properties in a mouse model, raising the possibility that it may regulate neutrophil-induced inflammation. Therefore, in this project, we aimed at deciphering the mechanism by which OLFM4 may regulate inflammation induced by NET-activated pDC and its relevance in the pathogenesis of Lupus Erythematosus (LE). First, we show that OLFM4 directly interacted with LL37 in neutrophils, impairing LL37/DNA complexes formation and pDC activation to produce IFNa. Then, by using an in vivo model of acute inflammation depending on NET- driven activation of pDCs, we observed that the absence of Olfm4 led to uncontrolled type I IFN production, confirming the regulatory role of neutrophil-derived OLFM4. Beyond controlling NET-induced inflammation, we also show that OLFM4 could inhibit pDC activation mediated by DNA-containing immune complexes (ICs), suggesting that OLFM4 holds anti¬inflammatory properties in the context of LE. Of note, we identified a previously unknown population of OLFM4hi9h neutrophils in healthy individuals that may belong to the immunosuppressive subset of granulocytic myeloid-derived suppressor cells (g-MDSCs). Strikingly, we observed a decreased frequency of OLFM4h'9h cells among inflammatory Low density granulocytes (LDGs) neutrophils in LE patients, suggesting that a disequilibrium between pro- and anti-inflammatory neutrophils may participate to the disease pathogenesis. Altogether, this study demonstrates that OLFM4 is involved in the resolution of inflammation. -- La NETose (formation de Neutrophil Extracellular Traps, NETs) est une réponse à un stimulus inflammatoire caractérisée par l'expulsion de l'ADN lié à des peptides antimicrobiens comme le LL37, induisant la mort de la cellule. Les NETs possèdent des propriétés antibactériennes et sont pro-inflammatoires via leur capacité à activer les cellules dendritiques plasmacytoïdes (pDCs). Dans ce contexte, les complexes ADN/LL37 libérés lient le récepteur Toll-like 9 des pDCs, induisant la production d'Interféron alpha (IFNa). La production incontrôlée d'IFNa par les pDCs est impliquée dans la pathogenèse du Lupus Erythemateux (LE), cependant la régulation de l'activation des pDCs reste mal connue. L'Oflactomédine 4 (OLFM4) est une protéine produite par une sous-population de neutrophiles, avec des propriétés anti-inflammatoires possibles. Le but de ce projet était d'identifier les mécanismes par lesquels l'OLFM4 pourrait réguler l'inflammation induite par les NETs et sa relevance dans la pathogenèse du LE. Tout d'abord, nous avons montré que l'OLFM4 interagissait avec le LL37, empêchant la production des complexes ADN/LL37 qui activent les pDCs. Nous avons vérifié notre hypothèse in vivo en utilisant un modèle murin d'inflammation locale dépendant des pDCs et des NETs. Dans ce contexte, le déficit en Olfm4 était associé à une production accrue d'IFNa, confirmant le rôle de l'OLFM4 dans le contrôle de l'inflammation. De plus, l'OLFM4 pouvait également inhiber l'activation des pDCs induite par des complexes immuns, suggérant que l'OLFM4 serait aussi anti-inflammatoire dans le contexte du LE. Ensuite, nous avons identifié une nouvelle population de neutrophiles OLFM4h'9h chez les sujets sains qui pourraient appartenir au sous-type anti¬inflammatoire des g-MDSCs (granulocytic myeloid-derived suppressor cells). Nous avons observé une diminution de ces cellules parmi les neutrophiles pro-inflammatoires LDGs (Low Density Granulocytes) dans le LE suggérant qu'un déséquilibre entre les sous-types de neutrophiles pourrait participer à l'inflammation excessive de cette maladie. Ces travaux mettent en évidence l'implication de l'OLFM4 dans la résolution de l'inflammation et suggèrent qu'une expression altérée de l'OLFM4 pourrait participer à la pathogenèse du LE. -- Les neutrophils constituent la majorité des globules blancs circulants et sont rapidement mobilisés depuis le sang dans un organe lésé en cas d'infection ou de blessure. Ils représentent la première ligne de défense du système immunitaire. Ils sont indispensables dans la défense contre les infections par leur capacité à tuer les bactéries, par exemple en produisant des peptides antimicrobiens (AMPs) qui fonctionnent comme des antibiotiques naturels. De plus, les neutrophiles recrutent les autres membres du système immunitaire qui sont nécessaires à l'éradication complète des microbes et à la réparation des tissus. Les nombreux outils permettant aux neutrophiles de contrôler les infections ne sont cependant pas sans danger pour les tissus. En effet, diverses molécules comme les AMPs peuvent induire des dommages tissulaires substantiels en participant au développement d'une inflammation chronique. Ceci est particulièrement le cas lorsque les neutrophiles meurent par un processus nommé NETose. Dans ce contexte, la cellule subit une dissolution de sa membrane suivie de l'expulsion de son ADN associé à des AMPs. Ces complexes formés d'ADN et d'AMPs induisent la production de cytokines pro-inflammatoires dont l'Interféron alpha (IFNa). Certaines maladies auto-immunes comme le lupus érythémateux sont associées à un excès de NETose produit par les neutrophiles et à un excès d'IFNa qui participe au développement de la maladie. Dans cette thèse, nous avons montré que l'Olfactomédine 4 (OLFM4), une protéine produite par les neutrophiles eux-mêmes, est un inhibiteur de cette inflammation. Nous avons démontré que TOLFM4 empêchait la formation des complexes ADN/AMPs, réduisant par là la production d'IFNa in vitro et in vivo. Finalement, nos recherches ont suggéré que l'OLFM4 pourrait être insuffisamment produite chez les patients souffrant de lupus, ce qui pourrait participer à l'inflammation chronique associée à la maladie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse vise une meilleure compréhension des enjeux et rapports de force liés au plurilinguisme dans une institution publique. Son terrain d'investigation est constitué par l'Administration fédérale suisse, propice pour étudier les questions ayant trait à la représentativité linguistique, l'idéologie langagière, la politique linguistique et les pratiques linguistiques sur le lieu de travail. La théorie de la bureaucratie représentative constitue le point de départ de mon cadre théorique. Selon celle-ci, les administrations publiques devraient représenter tous les groupes sociaux de leur pays. Leur personnel devrait « refléter » la diversité de cette population pour des raisons d'égalité, de légitimité et de stabilité politique. Cependant, le critère linguistique est rarement étudié dans ce cadre. Afin de combler ce manque de théorie, je me suis tournée vers la théorie politique, la sociologie des organisations et la sociolinguistique critique. Mes données sont constituées de 49 entretiens semi-directifs menés dans deux offices fédéraux, ainsi que des textes officiels réglementant le plurilinguisme et la représentativité linguistique à l'Administration fédérale. J'ai ainsi confronté les conceptions des collaborateurs sur le plurilinguisme - exprimées dans les entretiens - avec celles de l'institution, reflétées dans sa politique linguistique. Mon analyse a démontré que, selon les acteurs ou le contexte, les enjeux liés au plurilinguisme se situent à des niveaux distincts : lorsque l'institution s'efforce de créer un lieu de travail affichant l'égalité des langues officielles, les collaborateurs perçoivent le plurilinguisme comme un élément parmi d'autres qui influence l'efficacité de leur travail. L'intérêt de cette recherche se situe tout aussi bien au niveau pratique que théorique: d'une part, mes observations définissent certaines «barrières» empêchant les pratiques linguistiques plurilingues et une représentativité linguistique proportionnelle à celle du pays. Elles contribuent ainsi à une réflexion concrète sur la manière de les surmonter. D'autre part, l'application au plurilinguisme, dans une institution publique, de concepts et modèles théoriques issus de disciplines variées permet d'ouvrir un regard neuf sur ceux-ci.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le système digestif est colonisé dès la naissance par une population bactérienne, le microbiote, qui influence le développement du système immunitaire. Des modifications dans sa composition sont associées à des pathologies comme l'obésité et les maladies inflammatoires chroniques de l'intestin. Outre les antibiotiques, des facteurs environnementaux comme le tabagisme semblent aussi avoir une influence sur la composition de la flore intestinale, pouvant en partie expliquer la prise de poids à l'arrêt du tabac avec une modification de la composition du microbiote proche de celle observée chez des personnes obèses (profil microbiotique montrant des capacités accrues d'extraction calorique des aliments ingérés). Ces découvertes permettent d'imaginer de nouvelles approches diagnostiques et thérapeutiques via la régulation de ce microbiome. The digestive tract is colonized from birth by a bacterial population called the microbiota which influences the development of the immune system. Modifications in its composition are associated with problems such as obesity or inflammatory bowel diseases. Antibiotics are known to influence the intestinal microbiota but other environmental factors such as cigarette smoking also seem to have an impact on its composition. This influence might partly explain weight gain which is observed after smoking cessation. Indeed there is a modification of the gut microbiota which becomes similar to that of obese people with a microbiotical profile which is more efficient to extract calories from ingested food. These new findings open new fields of diagnostic and therapeutic approaches through the regulation of the microbiota.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une première étude menée par les auteures de cet article dans le cadre de l'Unité de médecine des violences du Centre hospitalier universitaire vaudois et de l'Institut universitaire romand de santé au travail avait montré que les conséquences à long terme d'une agression physique au travail pouvaient être sérieuses et le soutien de l'employeur était primordial pour surmonter les conséquences d'un tel événement. Une étude complémentaire, dont les résultats sont présentés ici, avait pour but de formuler des propositions concrètes de mesures de prévention de la violence physique au travail dans le contexte suisse. Les résultats sont présentés dans un «fil rouge» qui se présente sous forme de check-lists de recommandations concrètes. Ce travail s'appuie sur l'analyse et la synthèse d'une abondante documentation, ainsi que sur des entretiens auprès de personnes-ressource et des témoignages de victimes d'agressions physiques au travail. En conclusion, il apparaît que les mesures existantes en Suisse sont encore trop souvent partielles et fragmentées, et se limitent souvent à des offres de formation ou d'information ponctuelles. Alors même que les organisations sont de plus en plus confrontées aux agressions envers le personnel, il y a lieu de les sensibiliser à la nécessité d'instaurer de véritables dispositifs de prévention inscrits dans la durée et s'appuyant sur des modèles éprouvés, opérant aux trois niveaux de prévention primaire, secondaire et tertiaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La psychiatrie (la clinique psychopathologique en général) connaît en ce début de XXIe siècle une situation complexe. Coincée entre naturalisation de l'esprit et constructionnisme social, la possibilité de contribuer à la constitution d'une science autonome qui traite de la souffrance psychique est aujourd'hui problématique. Les nombreux réductionnismes à l'oeuvre, de type nosographique, diagnostique, psychopharmacologique, les concurrences épistémologiques et les dogmatismes des modèles psychothérapeutiques, dessinent un paysage où s'engager à poursuivre la voie d'une psychiatrie spécifiquement humaine et articulée aux sciences naturelles relève de la gageure. C'est le défi de l'anthropologie clinique. Deux articles lui sont consacrés. Dans ce premier article, après avoir fait le constat de certaines impasses qui menacent la psychiatrie contemporaine et rappelé les origines du projet de l'anthropologique clinique, les auteurs présentent les deux démarches qui la fondent, chacune opérant dans un esprit d'interdisciplinarité : l'anthropopsychiatrie de Jacques Schotte et l'anthropologie sémiotique formulée par Jean Lassègue, Victor Rosenthal et Yves-Marie Visetti. Un deuxième article déploiera le potentiel intégratif d'un tel paradigme, constitué sur la base de ces deux démarches conjointes. Psychiatry (psychopathology clinics in general) is in a complex situation at the beginning of 21st century. Wedged between mind naturalization and social constructionism, the possibility of contributing to the establishment of an autonomous science that deals with mental suffering is problematic today. The many nosographic, diagnostic, psychopharmacological reductionisms at work as well as the competing epistemologies and the dogmatisms of psychotherapeutic models draw a challenging landscape for those following the path of a specifically human psychiatry articulated to natural sciences. This is the challenge of clinical anthropology which is presented in two parts. In the first part, after examining several dead ends which threaten contemporary psychiatry and pointing out the origins of the clinical anthropology project, the authors present its two foundational approaches. Each approach driven by a spirit of interdisciplinarity : Jacques Schotte's anthropopsychiatry and the semiotic anthropology as formulated by Jean Lassègue, Victor Rosenthal and Yves-Marie Visetti. A second part will describe the integrative potential of such a paradigm, based on these two joint approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le néphron distal sensible à l'aldostérone, le récepteur aux minéralocorticoïdes (RM) et le récepteur aux glucocorticoids (RG) sont exprimés et peuvent être liés et activés par l'aldostérone et le Cortisol, respectivement. La réabsorption rénale de sodium est principalement contrôlée par le RM. Cependant, des modèles expérimentaux in vitro et in vivo suggèrent que le RG pourrait également jouer un rôle dans le transport rénal du sodium. Afin d'étudier l'implication du RG et/ou du RM exprimés dans les cellules épithéliales adultes dans le transport rénal du sodium, nous avons généré deux modèles de souris, dans lesquelles l'expression du RG (Nr3c1Pax8/LC1) ou du RM (Nr3c2Pax8/LC1) peut être abolie de manière inductible et cela spécifiquement dans les tubules rénaux. Les souris déficientes pour le gène du RM survivent mais développent un phénotype sévère de PHA-1, caractérisé par un retard de croissance, une augmentation des niveaux urinaires de Na+, une diminution de la concentration du Na+ dans le plasma, une hyperkaliémie et une augmentation des niveaux d'aldostérone plasmatique. Ce phénotype empire et devient létal lorsque les souris sont nourries avec une diète déficiente en sodium. Les niveaux d'expression en protéine de NCC, de la forme phosphorylée de NCC et de aENaC sont diminués, alors que l'expression en ARN messager et en protéine du RG est augmentée. Une diète riche en Na+ et pauvre en K+ ne corrige pas la concentration élevée d'aldostérone dans le plasma pour la ramener à des niveaux conformes, mais est suffisante pour corriger la perte de poids et les niveaux anormaux des électrolytes dans le plasma et l'urine. -- In the aldosterone-sensitive distal nephron, both the mineralocorticoid (MR) and the glucocorticoid (GR) receptor are expressed. They can be bound and activated by aldosterone and Cortisol, respectively. Renal Na+ reabsorption is mainly controlled by MR. However, in vitro and in vivo experimental models suggest that GR may play a role in renal Na+ transport. Therefore, to investigate the implication of MR and/or GR in adult epithelial cells in renal sodium transport, we generated inducible renal tubule- specific MR (Nr3c2Pax8/LC1) and GR (Nr3c1Pax8/LC1) knockout mice. MR-deficient mice survived but developed a severe PHA-1 phenotype with failure to thrive, higher urinary Na+, decreased plasma Na+ levels, hyperkalemia and higher levels of plasma aldosterone. This phenotype further worsened and became lethal under a sodium-deficient diet. NCC protein expression and its phosphorylated form, as well as aENaC protein level were downregulated, whereas the mRNA and protein expression of GR was increased. A diet rich in Na+and low in K+ did not normalize plasma aldosterone to control levels, but was sufficient to restore body weight, plasma and urinary electrolytes. Upon switch to a Na+-deficient diet, GR-mutant mice exhibited transient increased urinary Na+ and decreased K+ levels, with transitory higher plasma K+ concentration preceded by a significant increase in plasma aldosterone levels within the 12 hours following diet switch. We found no difference in urinary aldosterone levels, plasma Na+ concentration and plasma corticosterone levels. Moreover, NHE3, NKCC2, NCC