960 resultados para Fréquence spatiale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Etude des modèles de Whittle markoviens probabilisés Résumé Le modèle de Whittle markovien probabilisé est un modèle de champ spatial autorégressif simultané d'ordre 1 qui exprime simultanément chaque variable du champ comme une moyenne pondérée aléatoire des variables adjacentes du champ, amortie d'un coefficient multiplicatif ρ, et additionnée d'un terme d'erreur (qui est une variable gaussienne homoscédastique spatialement indépendante, non mesurable directement). Dans notre cas, la moyenne pondérée est une moyenne arithmétique qui est aléatoire du fait de deux conditions : (a) deux variables sont adjacentes (au sens d'un graphe) avec une probabilité 1 − p si la distance qui les sépare est inférieure à un certain seuil, (b) il n'y a pas d'adjacence pour des distances au-dessus de ce seuil. Ces conditions déterminent un modèle d'adjacence (ou modèle de connexité) du champ spatial. Un modèle de Whittle markovien probabilisé aux conditions où p = 0 donne un modèle de Whittle classique qui est plus familier en géographie, économétrie spatiale, écologie, sociologie, etc. et dont ρ est le coefficient d'autorégression. Notre modèle est donc une forme probabilisée au niveau de la connexité du champ de la forme des modèles de Whittle classiques, amenant une description innovante de l'autocorrélation spatiale. Nous commençons par décrire notre modèle spatial en montrant les effets de la complexité introduite par le modèle de connexité sur le pattern de variances et la corrélation spatiale du champ. Nous étudions ensuite la problématique de l'estimation du coefficent d'autorégression ρ pour lequel au préalable nous effectuons une analyse approfondie de son information au sens de Fisher et de Kullback-Leibler. Nous montrons qu'un estimateur non biaisé efficace de ρ possède une efficacité qui varie en fonction du paramètre p, généralement de manière non monotone, et de la structure du réseau d'adjacences. Dans le cas où la connexité du champ est non observée, nous montrons qu'une mauvaise spécification de l'estimateur de maximum de vraisemblance de ρ peut biaiser celui-ci en fonction de p. Nous proposons dans ce contexte d'autres voies pour estimer ρ. Pour finir, nous étudions la puissance des tests de significativité de ρ pour lesquels les statistiques de test sont des variantes classiques du I de Moran (test de Cliff-Ord) et du I de Moran maximal (en s'inspirant de la méthode de Kooijman). Nous observons la variation de puissance en fonction du paramètre p et du coefficient ρ, montrant par cette voie la dualité de l'autocorrélation spatiale entre intensité et connectivité dans le contexte des modèles autorégressifs

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fungi are divided in 3 groups in the field of medical mycology. The dermatophytes are filamentous fungi able to grow on keratinized tissues from human or animals. They are the main cause of superficial and cutaneous mycoses of the skin and its appendix (hair and nail). The yeasts, or dimorphic fungi, can be responsible of diverse types of infections (superficial to deep mycoses). The moulds include all Non-dermatophyte Filamentous Fungi (NDF). In medical mycology, the most representative moulds are Aspergillus spp., Fusarium spp. and Mucor spp. Diagnosis of mycosis is currently based on direct mycological examination of biological samples, as well as macroscopic and microscopic identification of the infectious fungus in culture assay. However, culture assays were found to remain sterile in roughly 40% of cases otherwise positive by direct mycological examinations. Additionally, results from culture assays are often difficult to interpret as various NDF are sometimes isolated. This thesis work is composed of three projects focusing on the development of new assays for direct in situ identification of fungi from dermatological samples. Part 1. A Polymerase Chain Reaction - Terminal Restriction Fragment Length Polymorphism assay (PCR-TRFLP) targeting the 28S rDNA was developed to identify dermatophytes and NDF in nails with suspected onychomycosis. This method is faster and more efficient than culture. It further enables the distinction of more than one agent in case of mixed infection. A fast and reliable assay for the identification of dermatophytes and NDF in onychomycosis was found to be highly relevant since onychomycosis with Fusarium spp. or other NDF are weakly responsive or unresponsive to standard onychomycosis treatments with oral terbinafine and itraconazole. Part 2. A nested PCR-sequencing assay targeting the 28S rDNA was developed to identify dermatophyte species in skin and hair samples. This method is especially suitable for tinea capitis where dermatophytes identification is critical for subsequently prescribing the adequate treatment. The challenge presented when performing direct PCR fungi identification in skin and hair differs from that seen in onychomycosis as small amount of material is generally collected, few fungal elements are present in the clinical sample and one dermatophyte among a dozen species must be identified. Part 3. Fusarium spp. is currently isolated from nails with a frequency of 15% of that of dermatophytes in the laboratory of Mycology of the CHUV (2005-2012). The aim of this work was to examine if the intensive use of terbinafine and itraconazole could be a cause of the high incidence of Fusarium nail infections. For that purpose, two different methods, specific PCR and TRFLP, were used to detect both Fusarium spp. and Trichophyton spp. in nails of previously treated or untreated patients. TRFLP assay was found to be less sensitive than classical PCR assays specifically detecting Fusarium spp. or Trichophyton spp. Independently of the detection method used, the prevalence of Fusarium spp. appears not to be higher in patients previously treated by oral standard treatment with terbinafine and azoles which are highly effective to fight Trichophyton spp. in nails. In many cases Fusarium sp. was detected in samples of patients not previously subjected to antifungal therapy. Therefore, these treatments do not appear to favor the establishment of Fusarium spp. after elimination of a dermatophyte in nail infection. - En mycologie médicale, les champignons sont classés en 3 groupes. Les dermatophytes sont des champignons filamenteux capables de se développer dans les tissus kératinisés des hommes et des animaux, ils représentent la principale cause des mycoses superficielles et cutanées de la peau et de ses appendices (ongles et cheveux). Les levures, ou champignons dimorphiques, peuvent être responsables de divers types d'infections (superficielles à profondes). Les moisissures incluent tous les champignons filamenteux non-dermatophytes (NDF), les Aspergillus spp., les Fusarium spp. et les Mucor spp. sont les principales espèces rencontrées. Le diagnostic d'une mycose est basé sur un examen mycologique direct des prélèvements biologiques ainsi que sur l'identification macroscopique et microscopique du champignon infectieux isolé en culture. Cependant, dans environ 40% des cas, l'identification de l'agent pathogène est impossible par cette méthode car la culture reste stérile, bien que l'examen direct soit positif. De plus, la croissance de moisissures et/ou autres contaminants peut rendre l'interprétation de l'examen difficile. Ce travail de thèse est composé de trois projets focalisés sur le développement de nouvelles méthodes d'identification des champignons directement à partir d'échantillons dermatologiques. Projet 1. Une méthode de Réaction en chaîne de polymérase couplée à du polymorphisme de longueur des fragments de restriction terminaux (PCR-TRFLP), en ciblant l'ADN ribosomal 28S, a été développée pour l'identification des dermatophytes et moisissures dans les ongles avec suspicion d'onychomycoses. Cette technique s'est avérée plus rapide et plus efficace que la culture, permettant l'identification de plusieurs champignons en même temps. Posséder une méthode d'identification rapide et fiable des dermatophytes et des NDF dans les onychomycoses a été jugée nécessaire du fait que les Fusarium et d'autres NDF sont peu ou pas sensibles aux traitements oraux standards à la terbinafine et à Γ itraconazole. Projet 2. Une PCR nichée couplée au séquençage d'un fragment de l'ADN ribosomal 28S a été développée afin de différencier les dermatophytes dans la peau et les cheveux. Cette méthode est particulièrement adaptée au cas de tinea capitis, où l'identification du dermatophyte est essentielle afin de prescrire le traitement adéquat. Le problème de l'identification du pathogène fongique dans les cheveux et la peau diffère des onychomycoses car de petites quantités sont prélevées chez les patients, peu d'éléments fongiques sont présents et il faut discriminer un dermatophyte parmi une douzaine d'espèces potentielles. Projet 3. Au laboratoire de Mycologie du CHUV, les Fusarium ont été isolé dans les ongles à une fréquence de 15% pour la période 2005-2012. Le but de ce travail était d'examiner si l'utilisation intensive de terbinafine et d'itraconazole pouvait être une des causes de la forte incidence des infections des ongles par Fusarium. A cet effet, deux méthodes ont été utilisées pour détecter à la fois Fusarium spp. et Trichophyton spp., la PCR spécifique et le TRFLP. Indépendamment de la méthode choisie, il en résulte que la prévalence des Fusarium η'apparaît pas liée à un traitement au préalable des patients avec de la terbinafine ou des azoles, thérapies très efficaces contre les Trichophyton spp. dans les ongles. De plus, il existe de nombreux cas où Fusarium était détecté chez des patients non traités.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé L'administration par voie orale d'acides gras polyinsaturés de type ω-3 contenus dans l'huile de poisson exerce des effets bénéfiques sur la réponse métabolique et inflammatoire chez des sujets sains soumis à une injection d'endotoxine. Ce modèle expérimental a été validé pour l'investigation clinique. Il simule un sepsis et induit une réponse comparable à un état grippal, accompagné de modifications métaboliques et inflammatoires. L'objectif de cette étude est de déterminer les effets de l'huile de poisson administré par voie intraveineuse sur la réponse à l'endotoxine chez le sujet sain. L'hypothèse est qu'il sera possible de réduire le temps de latence en comparaison avec la voie orale. Pour ce faire, nous avons inclut dans une étude prospective randomisée 16 volontaires sains âgés de 16 à 35 ans et les avons répartis en 2 groupes : l'un recevant une émulsion lipidique contenant les acides gras polyinsaturés EPA et DHA et l'autre, sans traitement, constituant le groupe contrôle. Huit sujets reçoivent une perfusion continue de 0.5g/kg d'huile de poisson durant 6h, 48h et 24h avant la journée test. Lors de cette journée test, tous les volontaires ont reçu une dose d'endotoxine (2mg/kg) au temps t0. Les paramètres vitaux sont monitorés et enregistrés : fréquence cardiaque, respiratoire, pression artérielle, saturation artérielle en oxygène, ainsi que température. Des prises de sang sont effectuées à intervalles réguliers pour déterminer 1) l'incorporation membranaire des thrombocytes en EPA et DHA ; 2) le taux plasmatique d'hormones (insulin, glucagon, cortisol, ACTH et catécholamines), de marqueurs inflammatoires (TNF-α, IL-6, hsCRP), ainsi que de substrats énergétiques (glucose, lactate, acides gras libres et triglycérides). La dépense énergétique est déterminée par calorimétrie indirecte. L'analyse statistique est effectuée par analyse de variance (ANOVA). Les résultats montrent une incorporation significative de EPA et DHA au niveau membranaire des thrombocytes. L'huile de poisson induit une atténuation significative de la réponse neuro-endocrinienne et inflammatoire en réponse à l'injection d'endotoxine avec diminution de la fièvre (-0.7°C), ainsi que du taux plasmatique ,d'ACTH (-68%), TNF-α (-63%) et de noradrénaline (-%) dans le groupe huile de poisson. En conclusion, cette étude montre que la supplémentation de 2 doses d'huile de poisson par voie intraveineuse modifie la composition phospholipidique des membranes des thrombocytes et diminue la réaction inflammatoire et neuroendocrinienne en réponse à l'endotoxine. Ces résultats positifs ouvrent la perspective d'une supplémentation parentérale préopératoire en acides gras polyinsaturés ω-3 pour diminuer le stress lié à la chirurgie majeure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, nous étudions les aspects comportementaux d'agents qui interagissent dans des systèmes de files d'attente à l'aide de modèles de simulation et de méthodologies expérimentales. Chaque période les clients doivent choisir un prestataire de servivce. L'objectif est d'analyser l'impact des décisions des clients et des prestataires sur la formation des files d'attente. Dans un premier cas nous considérons des clients ayant un certain degré d'aversion au risque. Sur la base de leur perception de l'attente moyenne et de la variabilité de cette attente, ils forment une estimation de la limite supérieure de l'attente chez chacun des prestataires. Chaque période, ils choisissent le prestataire pour lequel cette estimation est la plus basse. Nos résultats indiquent qu'il n'y a pas de relation monotone entre le degré d'aversion au risque et la performance globale. En effet, une population de clients ayant un degré d'aversion au risque intermédiaire encoure généralement une attente moyenne plus élevée qu'une population d'agents indifférents au risque ou très averses au risque. Ensuite, nous incorporons les décisions des prestataires en leur permettant d'ajuster leur capacité de service sur la base de leur perception de la fréquence moyenne d'arrivées. Les résultats montrent que le comportement des clients et les décisions des prestataires présentent une forte "dépendance au sentier". En outre, nous montrons que les décisions des prestataires font converger l'attente moyenne pondérée vers l'attente de référence du marché. Finalement, une expérience de laboratoire dans laquelle des sujets jouent le rôle de prestataire de service nous a permis de conclure que les délais d'installation et de démantèlement de capacité affectent de manière significative la performance et les décisions des sujets. En particulier, les décisions du prestataire, sont influencées par ses commandes en carnet, sa capacité de service actuellement disponible et les décisions d'ajustement de capacité qu'il a prises, mais pas encore implémentées. - Queuing is a fact of life that we witness daily. We all have had the experience of waiting in line for some reason and we also know that it is an annoying situation. As the adage says "time is money"; this is perhaps the best way of stating what queuing problems mean for customers. Human beings are not very tolerant, but they are even less so when having to wait in line for service. Banks, roads, post offices and restaurants are just some examples where people must wait for service. Studies of queuing phenomena have typically addressed the optimisation of performance measures (e.g. average waiting time, queue length and server utilisation rates) and the analysis of equilibrium solutions. The individual behaviour of the agents involved in queueing systems and their decision making process have received little attention. Although this work has been useful to improve the efficiency of many queueing systems, or to design new processes in social and physical systems, it has only provided us with a limited ability to explain the behaviour observed in many real queues. In this dissertation we differ from this traditional research by analysing how the agents involved in the system make decisions instead of focusing on optimising performance measures or analysing an equilibrium solution. This dissertation builds on and extends the framework proposed by van Ackere and Larsen (2004) and van Ackere et al. (2010). We focus on studying behavioural aspects in queueing systems and incorporate this still underdeveloped framework into the operations management field. In the first chapter of this thesis we provide a general introduction to the area, as well as an overview of the results. In Chapters 2 and 3, we use Cellular Automata (CA) to model service systems where captive interacting customers must decide each period which facility to join for service. They base this decision on their expectations of sojourn times. Each period, customers use new information (their most recent experience and that of their best performing neighbour) to form expectations of sojourn time at the different facilities. Customers update their expectations using an adaptive expectations process to combine their memory and their new information. We label "conservative" those customers who give more weight to their memory than to the xiv Summary new information. In contrast, when they give more weight to new information, we call them "reactive". In Chapter 2, we consider customers with different degree of risk-aversion who take into account uncertainty. They choose which facility to join based on an estimated upper-bound of the sojourn time which they compute using their perceptions of the average sojourn time and the level of uncertainty. We assume the same exogenous service capacity for all facilities, which remains constant throughout. We first analyse the collective behaviour generated by the customers' decisions. We show that the system achieves low weighted average sojourn times when the collective behaviour results in neighbourhoods of customers loyal to a facility and the customers are approximately equally split among all facilities. The lowest weighted average sojourn time is achieved when exactly the same number of customers patronises each facility, implying that they do not wish to switch facility. In this case, the system has achieved the Nash equilibrium. We show that there is a non-monotonic relationship between the degree of risk-aversion and system performance. Customers with an intermediate degree of riskaversion typically achieve higher sojourn times; in particular they rarely achieve the Nash equilibrium. Risk-neutral customers have the highest probability of achieving the Nash Equilibrium. Chapter 3 considers a service system similar to the previous one but with risk-neutral customers, and relaxes the assumption of exogenous service rates. In this sense, we model a queueing system with endogenous service rates by enabling managers to adjust the service capacity of the facilities. We assume that managers do so based on their perceptions of the arrival rates and use the same principle of adaptive expectations to model these perceptions. We consider service systems in which the managers' decisions take time to be implemented. Managers are characterised by a profile which is determined by the speed at which they update their perceptions, the speed at which they take decisions, and how coherent they are when accounting for their previous decisions still to be implemented when taking their next decision. We find that the managers' decisions exhibit a strong path-dependence: owing to the initial conditions of the model, the facilities of managers with identical profiles can evolve completely differently. In some cases the system becomes "locked-in" into a monopoly or duopoly situation. The competition between managers causes the weighted average sojourn time of the system to converge to the exogenous benchmark value which they use to estimate their desired capacity. Concerning the managers' profile, we found that the more conservative Summary xv a manager is regarding new information, the larger the market share his facility achieves. Additionally, the faster he takes decisions, the higher the probability that he achieves a monopoly position. In Chapter 4 we consider a one-server queueing system with non-captive customers. We carry out an experiment aimed at analysing the way human subjects, taking on the role of the manager, take decisions in a laboratory regarding the capacity of a service facility. We adapt the model proposed by van Ackere et al (2010). This model relaxes the assumption of a captive market and allows current customers to decide whether or not to use the facility. Additionally the facility also has potential customers who currently do not patronise it, but might consider doing so in the future. We identify three groups of subjects whose decisions cause similar behavioural patterns. These groups are labelled: gradual investors, lumpy investors, and random investor. Using an autocorrelation analysis of the subjects' decisions, we illustrate that these decisions are positively correlated to the decisions taken one period early. Subsequently we formulate a heuristic to model the decision rule considered by subjects in the laboratory. We found that this decision rule fits very well for those subjects who gradually adjust capacity, but it does not capture the behaviour of the subjects of the other two groups. In Chapter 5 we summarise the results and provide suggestions for further work. Our main contribution is the use of simulation and experimental methodologies to explain the collective behaviour generated by customers' and managers' decisions in queueing systems as well as the analysis of the individual behaviour of these agents. In this way, we differ from the typical literature related to queueing systems which focuses on optimising performance measures and the analysis of equilibrium solutions. Our work can be seen as a first step towards understanding the interaction between customer behaviour and the capacity adjustment process in queueing systems. This framework is still in its early stages and accordingly there is a large potential for further work that spans several research topics. Interesting extensions to this work include incorporating other characteristics of queueing systems which affect the customers' experience (e.g. balking, reneging and jockeying); providing customers and managers with additional information to take their decisions (e.g. service price, quality, customers' profile); analysing different decision rules and studying other characteristics which determine the profile of customers and managers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La diminution de la biodiversité, à toutes les échelles spatiales et sur l'ensemble de la planète, compte parmi les problèmes les plus préoccupants de notre époque. En terme de conservation, il est aujourd'hui primordial de mieux comprendre les mécanismes qui créent et maintiennent la biodiversité dans les écosystèmes naturels ou anthropiques. La présente étude a pour principal objectif d'améliorer notre compréhension des patrons de biodiversité végétale et des mécanismes sous jacents, dans un écosystème complexe, riche en espèces et à forte valeur patrimoniale, les pâturages boisés jurassiens. Structure et échelle spatiales sont progressivement reconnues comme des dimensions incontournables dans l'étude des patrons de biodiversité. De plus, ces deux éléments jouent un rôle central dans plusieurs théories écologiques. Toutefois, peu d'hypothèses issues de simulations ou d'études théoriques concernant le lien entre structure spatiale du paysage et biodiversité ont été testées de façon empirique. De même, l'influence des différentes composantes de l'échelle spatiale sur les patrons de biodiversité est méconnue. Cette étude vise donc à tester quelques-unes de ces hypothèses et à explorer les patrons spatiaux de biodiversité dans un contexte multi-échelle, pour différentes mesures de biodiversité (richesse et composition en espèces) à l'aide de données de terrain. Ces données ont été collectées selon un plan d'échantillonnage hiérarchique. Dans un premier temps, nous avons testé l'hypothèse élémentaire selon laquelle la richesse spécifique (le nombre d'espèces sur une surface donnée) est liée à l'hétérogénéité environnementale quelque soit l'échelle. Nous avons décomposé l'hétérogénéité environnementale en deux parties, la variabilité des conditions environnementales et sa configuration spatiale. Nous avons montré que, en général, la richesse spécifique augmentait avec l'hétérogénéité de l'environnement : elle augmentait avec le nombre de types d'habitats et diminuait avec l'agrégation spatiale de ces habitats. Ces effets ont été observés à toutes les échelles mais leur nature variait en fonction de l'échelle, suggérant une modification des mécanismes. Dans un deuxième temps, la structure spatiale de la composition en espèces a été décomposée en relation avec 20 variables environnementales et 11 traits d'espèces. Nous avons utilisé la technique de partition de la variation et un descripteur spatial, récemment développé, donnant accès à une large gamme d'échelles spatiales. Nos résultats ont montré que la structure spatiale de la composition en espèces végétales était principalement liée à la topographie, aux échelles les plus grossières, et à la disponibilité en lumière, aux échelles les plus fines. La fraction non-environnementale de la variation spatiale de la composition spécifique avait une relation complexe avec plusieurs traits d'espèces suggérant un lien avec des processus biologiques tels que la dispersion, dépendant de l'échelle spatiale. Dans un dernier temps, nous avons testé, à plusieurs échelles spatiales, les relations entre trois composantes de la biodiversité : la richesse spécifique totale d'un échantillon (diversité gamma), la richesse spécifique moyenne (diversité alpha), mesurée sur des sous-échantillons, et les différences de composition spécifique entre les sous-échantillons (diversité beta). Les relations deux à deux entre les diversités alpha, beta et gamma ne suivaient pas les relations attendues, tout du moins à certaines échelles spatiales. Plusieurs de ces relations étaient fortement dépendantes de l'échelle. Nos résultats ont mis en évidence l'importance du rapport d'échelle (rapport entre la taille de l'échantillon et du sous-échantillon) lors de l'étude des patrons spatiaux de biodiversité. Ainsi, cette étude offre un nouvel aperçu des patrons spatiaux de biodiversité végétale et des mécanismes potentiels permettant la coexistence des espèces. Nos résultats suggèrent que les patrons de biodiversité ne peuvent être expliqués par une seule théorie, mais plutôt par une combinaison de théories. Ils ont également mis en évidence le rôle essentiel joué par la structure spatiale dans la détermination de la biodiversité, quelque soit le composant de la biodiversité considéré. Enfin, cette étude souligne l'importance de prendre en compte plusieurs échelles spatiales et différents constituants de l'échelle spatiale pour toute étude relative à la diversité spécifique. Abstract The world-wide loss of biodiversity at all scales has become a matter of urgent concern, and improving our understanding of local drivers of biodiversity in natural and anthropogenic ecosystems is now crucial for conservation. The main objective of this study was to further our comprehension of the driving forces controlling biodiversity patterns in a complex and diverse ecosystem of high conservation value, wooded pastures. Spatial pattern and scale are central to several ecological theories, and it is increasingly recognized that they must be taken -into consideration when studying biodiversity patterns. However, few hypotheses developed from simulations or theoretical studies have been tested using field data, and the evolution of biodiversity patterns with different scale components remains largely unknown. We test several such hypotheses and explore spatial patterns of biodiversity in a multi-scale context and using different measures of biodiversity (species richness and composition), with field data. Data were collected using a hierarchical sampling design. We first tested the simple hypothesis that species richness, the number of species in a given area, is related to environmental heterogeneity at all scales. We decomposed environmental heterogeneity into two parts: the variability of environmental conditions and its spatial configuration. We showed that species richness generally increased with environmental heterogeneity: species richness increased with increasing number of habitat types and with decreasing spatial aggregation of those habitats. Effects occurred at all scales but the nature of the effect changed with scale, suggesting a change in underlying mechanisms. We then decomposed the spatial structure of species composition in relation to environmental variables and species traits using variation partitioning and a recently developed spatial descriptor, allowing us to capture a wide range of spatial scales. We showed that the spatial structure of plant species composition was related to topography at the coarsest scales and insolation at finer scales. The non-environmental fraction of the spatial variation in species composition had a complex relationship with several species traits, suggesting a scale-dependent link to biological processes, particularly dispersal. Finally, we tested, at different spatial scales, the relationships between different components of biodiversity: total sample species richness (gamma diversity), mean species .richness (alpha diversity), measured in nested subsamples, and differences in species composition between subsamples (beta diversity). The pairwise relationships between alpha, beta and gamma diversity did not follow the expected patterns, at least at certain scales. Our result indicated a strong scale-dependency of several relationships, and highlighted the importance of the scale ratio when studying biodiversity patterns. Thus, our results bring new insights on the spatial patterns of biodiversity and the possible mechanisms allowing species coexistence. They suggest that biodiversity patterns cannot be explained by any single theory proposed in the literature, but a combination of theories is sufficient. Spatial structure plays a crucial role for all components of biodiversity. Results emphasize the importance of considering multiple spatial scales and multiple scale components when studying species diversity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mycobacterium tuberculosis (Mtb) infection is known to have two main outcomes: latent infection (LTBI) where the pathogen is in a dormant form or active tuberculosis disease (TB), which is, most of the time, highly transmissible. Over one-third of the world's population asymptomatically harbours a latent form of Mtb with a 10% risk of disease reactivation. Efficient vaccine strategies remain unknown and the existing BCG vaccine is believed to protect against only some forms of TB (extra-pulmonary TB in children). Moreover, timely identification of TB remains complex with the actual diagnosis based on clinical observations associated to low efficient tests. Furthermore, current therapies are expensive, heavy and long for patients, and present lesser and lesser efficiency against new drug-resistant strains of Mtb. It is thus important to develop our knowledge on host -Mtb relationship to propose new vaccines, diagnosis tools and medications for the future. This thesis aims at improving our understanding of human immunology in the field of TB. All along this work, the same algorithm has been used and points towards the discovery of new correlates of protection through the comparison of T-cell immune responses in patients with LTBI or TB. We performed a comprehensive analysis of T-cell immune responses to Mtb using polychromatic flow cytometiy to study the functional profile of Μ/ό-specific CD4 Τ cells. We observed a polyfunctional profile in LTBI where CD4 Τ cells mainly co-produced IFN-γ, TNF-α and IL-2. In contrast, in TB, Mtó-specific CD4 Τ cells were mostly single TNF-a positive. Thus, analysis of the cytokine profiles was a strong immunological measure discriminating TB and LTBI. We next analyzed Thl7 cells. Mtò-specific Thl7 cells lacked immediate {i.e. ex vivo) IL-17A effector function in both LTBI and TB individuals. Moreover, they were also absent in bronchoalveolar lavages (BALs). Interestingly, we noticed that Mtb- specific Thl7 cells from LTBI but not from TB subjects acquired the ability to produce IL- 17A following Mtb-specific T-cell expansion. We finally performed a comprehensive characterization of Mfè-specific CD8 Τ cells that were detected in most (60%) TB patients and few (15%) LTBI subjects. We observed differences in the phenotype, the cytotoxicity and the proliferative capacities but not in the cytokine profile of Mtò-specific CD8 Τ cells between LTBI and TB. We concluded that the activity of Mtb infection (i.e. latent versus active) and the clinical presentation were associated to distinct profiles of Mtó-specific CD8 T-cell responses. To conclude, a multiparametric analysis including both CD4 and CD8 T-cell responses to Mtb lead to the development of a significantly improved diagnostic test discriminating between LTBI and TB. All together, these results provide new insights into the interaction between Mtb and the host immune response and expand upon our prior knowledge of tuberculosis. - L'infection par Mycobacterium tuberculosis peut résulter en une infection tuberculeuse latente et asymptomatique ou encore en une forme active et la plupart du temps contagieuse, la tuberculose. Un tiers de la population mondiale serait infectée de manière chronique avec 10 % de risques de développer la maladie durant la vie. Il n'existe actuellement aucun vaccin efficace, le BCG ne conférant qu'une protection partielle contre certaines formes extrapulmonaires de la maladie chez l'enfant. D'autre part, il n'existe pas de méthode diagnostique fiable et rapide, celle-ci se basant dans un premier temps sur l'analyse de la situation clinique des patients. Enfin, les thérapies actuelles sont couteuses et contraignantes pour les patients et tendent à ne plus être efficaces contre les souches émergentes de mycobactérie multi-résistantes. Aussi, il est important de bien comprendre la relation hôte-pathogène de manière à pouvoir proposer de nouveaux outils vaccinaux, diagnostiques et thérapeutiques. Ce manuscrit s'inscrit dans cette direction et vise à améliorer nos connaissances de la réponse immunitaire humaine dans le cadre de la tuberculose. Nous avons suivi un algorithme similaire tout au long des études proposées en comparant les réponses immunes des patients latents à celles des patients actifs, et ce, dans le but de mettre en évidence de potentiels corrélats de protection. Nous avons réalisé par cytométrie en flux une analyse du profil fonctionnel des cellules lymphocytaires CD4 dans la réponse au pathogène. Dans le cas de la tuberculose active, les cellules CD4 sécrètent majoritairement du TNF-α quand, au contraire, elles sécrètent à la fois du TNF-α, de l'IFN-γ et de l'IL-2 (poly-fonctionnalité) dans l'infection latente. Cette observation nous a permis de proposer un nouveau test diagnostique de la maladie active. Nous avons aussi étudié les cellules CD4 Thl7, impliquées dans la réponse immunitaire cellulaire contre les pathogènes extracellulaires et les champignons. Nous avons souligné une variation dans la production d'IL-17 entre infection latente et tuberculose active qui pourrait être impliquée dans la protection de l'individu contre le pathogène. D'autre part, ce manuscrit propose une caractérisation des cellules Τ CD8 dites cytotoxiques dans la tuberculose. Des divergences dans la fréquence des réponses observées, le phénotype mais aussi les capacités prolifératives et cytotoxiques ont pu être mises en évidence entre latence et tuberculose active. Ces observations soulignent le rôle important de ce groupe cellulaire dans l'évolution de la maladie et permettent de proposer une amélioration de l'outil diagnostic précédemment proposé et se basant à la fois sur le profil fonctionnel des cellules Τ CD4 ainsi que sur la présence potentielle d'une réponse CD8 spécifique au pathogène. Ces diverses études réalisées sur les cellules Τ humaines répondant spécifiquement à Mtb nous permettent de faire un pas supplémentaire dans la compréhension de notre réponse immunitaire face à ce pathogène particulièrement dangereux qui continue à l'heure actuelle à tuer chaque année des millions de personnes. - La tuberculose (TB) résulte d'une infection bactérienne par Mycobacterium tuberculosis (Mtb) et existe sous deux formes majeures: une forme latente, lorsque la bactérie est en phase de dormance ainsi qu'une forme active durant laquelle la bactérie se divise activement, entraînant les symptômes de la maladie. La personne infectée devient alors contagieuse dans la plupart des cas. Aujourd'hui des études épidémiologiques assument que plus d'un tiers de la population mondiale serait infectée par la forme latente de la bactérie et que 10% des cas réactiveront donnant lieu à diverses présentations de la maladie. Il n'existe actuellement aucun vaccin réellement efficace chez l'adulte. D'autre part, les traitements antibiotiques utilisés sont très lourds pour les patients et les cliniciens doivent faire face à l'émergence de nouvelles souches bactériennes multi-résistantes non affectées par les thérapies existantes. Les autorités sanitaires sont, d'autre part, confrontées à l'absence d'un outil diagnostique rapide, fiable et efficace. En effet, la méthode de référence reste la culture microbiologique du pathogène qui prend généralement plusieurs semaines, pendant lesquelles le patient pourra contaminer d'autres personnes. En résumé, la lutte contre la tuberculose doit passer par l'élaboration d'un vaccin efficace, de nouvelles thérapies, mais aussi par la mise en place de nouveaux tests diagnostics plus rapides afin d'éviter la dissémination de la maladie. Aussi, la relation hôte-bactérie qui n'est actuellement que peu comprise doit être investiguée. Ce travail de thèse a pour but d'étudier la réponse immunitaire chez l'homme infecté par Mtb et vise plus particulièrement l'étude d'une population clé de cellules immunitaires: les lymphocytes T. L'étude des cellules Τ CD4 nous a permis dans un premier temps de proposer un nouveau test diagnostic de la maladie active. Nous avons aussi analysé plus en détail une population spécifique des cellules Τ CD4 (les cellules Thl7), nous permettant d'associer leur fonction avec un possible état physiologique de protection contre le pathogène. En second lieu nous avons réalisé une caractérisation des cellules Τ CD8, à la fois chez les personnes avec des infections latentes et chez les personnes malades. Nous avons mis en évidence des différences fonctionnelles chez les deux groupes de patients, nous permettant ainsi une meilleure compréhension de l'immunité contre Mtb. Enfin, nous avons combiné les différents profils immunologiques obtenus pour développer un test diagnostic plus performant et sensible que celui proposé antérieurement. Ces diverses études réalisées sur les cellules Τ humaines nous permettent de faire un pas supplémentaire dans la compréhension de la réponse immunitaire face à ce pathogène particulièrement dangereux qui continue à tuer chaque année des millions de personnes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Spatial hearing refers to a set of abilities enabling us to determine the location of sound sources, redirect our attention toward relevant acoustic events, and recognize separate sound sources in noisy environments. Determining the location of sound sources plays a key role in the way in which humans perceive and interact with their environment. Deficits in sound localization abilities are observed after lesions to the neural tissues supporting these functions and can result in serious handicaps in everyday life. These deficits can, however, be remediated (at least to a certain degree) by the surprising capacity of reorganization that the human brain possesses following damage and/or learning, namely, the brain plasticity. In this thesis, our aim was to investigate the functional organization of auditory spatial functions and the learning-induced plasticity of these functions. Overall, we describe the results of three studies. The first study entitled "The role of the right parietal cortex in sound localization: A chronometric single pulse transcranial magnetic stimulation study" (At et al., 2011), study A, investigated the role of the right parietal cortex in spatial functions and its chronometry (i.e. the critical time window of its contribution to sound localizations). We concentrated on the behavioral changes produced by the temporarily inactivation of the parietal cortex with transcranial magnetic stimulation (TMS). We found that the integrity of the right parietal cortex is crucial for localizing sounds in the space and determined a critical time window of its involvement, suggesting a right parietal dominance for auditory spatial discrimination in both hemispaces. In "Distributed coding of the auditory space in man: evidence from training-induced plasticity" (At et al., 2013a), study B, we investigated the neurophysiological correlates and changes of the different sub-parties of the right auditory hemispace induced by a multi-day auditory spatial training in healthy subjects with electroencephalography (EEG). We report a distributed coding for sound locations over numerous auditory regions, particular auditory areas code specifically for precise parts of the auditory space, and this specificity for a distinct region is enhanced with training. In the third study "Training-induced changes in auditory spatial mismatch negativity" (At et al., 2013b), study C, we investigated the pre-attentive neurophysiological changes induced with a training over 4 days in healthy subjects with a passive mismatch negativity (MMN) paradigm. We showed that training changed the mechanisms for the relative representation of sound positions and not the specific lateralization themselves and that it changed the coding in right parahippocampal regions. - L'audition spatiale désigne notre capacité à localiser des sources sonores dans l'espace, de diriger notre attention vers les événements acoustiques pertinents et de reconnaître des sources sonores appartenant à des objets distincts dans un environnement bruyant. La localisation des sources sonores joue un rôle important dans la façon dont les humains perçoivent et interagissent avec leur environnement. Des déficits dans la localisation de sons sont souvent observés quand les réseaux neuronaux impliqués dans cette fonction sont endommagés. Ces déficits peuvent handicaper sévèrement les patients dans leur vie de tous les jours. Cependant, ces déficits peuvent (au moins à un certain degré) être réhabilités grâce à la plasticité cérébrale, la capacité du cerveau humain à se réorganiser après des lésions ou un apprentissage. L'objectif de cette thèse était d'étudier l'organisation fonctionnelle de l'audition spatiale et la plasticité induite par l'apprentissage de ces fonctions. Dans la première étude intitulé « The role of the right parietal cortex in sound localization : A chronometric single pulse study » (At et al., 2011), étude A, nous avons examiné le rôle du cortex pariétal droit dans l'audition spatiale et sa chronométrie, c'est-à- dire le moment critique de son intervention dans la localisation de sons. Nous nous sommes concentrés sur les changements comportementaux induits par l'inactivation temporaire du cortex pariétal droit par le biais de la Stimulation Transcrânienne Magnétique (TMS). Nous avons démontré que l'intégrité du cortex pariétal droit est cruciale pour localiser des sons dans l'espace. Nous avons aussi défini le moment critique de l'intervention de cette structure. Dans « Distributed coding of the auditory space : evidence from training-induced plasticity » (At et al., 2013a), étude B, nous avons examiné la plasticité cérébrale induite par un entraînement des capacités de discrimination auditive spatiale de plusieurs jours. Nous avons montré que le codage des positions spatiales est distribué dans de nombreuses régions auditives, que des aires auditives spécifiques codent pour des parties données de l'espace et que cette spécificité pour des régions distinctes est augmentée par l'entraînement. Dans « Training-induced changes in auditory spatial mismatch negativity » (At et al., 2013b), étude C, nous avons examiné les changements neurophysiologiques pré- attentionnels induits par un entraînement de quatre jours. Nous avons montré que l'entraînement modifie la représentation des positions spatiales entraînées et non-entrainées, et que le codage de ces positions est modifié dans des régions parahippocampales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: L'unité d'Assistance Pharmaceutique de la Pharmacie des HUG fonctionne comme centre d'information sur les médicaments et gère des informations mises à disposition sur le web. Celles-ci sont destinées prioritairement au personnel soignant des HUG et accessibles sur le site intranet/Internet (http://www.hcuge.ch/Pharmacie), mis en service en 1998. L'objectif de ce travail était d'évaluer la qualité de l'information du site intranet/Internet et d'y apporter les améliorations nécessaires. Méthode: Le site intranet/Internet de la pharmacie des HUG a été évalué en automne 2004 à l'aide de 2 outils : NetScoring : grille d'évaluation de la qualité de l'information de santé sur Internet (http://www.chu-rouen.fr/netscoring/). Elle comporte 49 critères répartis en 8 catégories. Chaque critère est noté sur une échelle de 5 occurrences puis pondéré selon son importance (multiplication par 3 si le critère est essentiel, par 2 s'il est important ou par 1 s'il est mineur). Analyse AMDEC : méthode permettant de séquencer un processus et d'en Analyser les Modes de Défaillance, leur Effet et leur Criticité (Qual Saf Health Care 2005 :14(2);93-98). Un score est attribué à chaque mode de défaillance identifié en terme de fréquence, de sévérité et de détectabilité. La multiplication des 3 scores fournit un résultat global de criticité (indice de criticité IC, max. 810), permettant de hiérarchiser les risques. Résultats: Etat des lieux NetScoring : La qualité globale du site intranet/Internet était bonne (202 pts/312). Les points forts concernaient la pertinence et l'utilité du site, la qualité du contenu, du moteur de recherche et du design, la rapidité de chargement du site, la sélection des liens externes proposés et le respect du secret médical. Les faiblesses résidaient dans l'absence de politique de mise à jour régulière, d'annotation systématique de l'état d'actualisation des documents, d'un comité éditorial et scientifique, de mots-clés en anglais et d'une liste permettant l'identification des auteurs. Analyse AMDEC : Quatre catégories (création du document, conversion, structure du site et publication du document) et 19 modes de défaillances ont été caractérisés. Trois modes de défaillance étaient associés à un IC important: erreurs lors de la création d'un document (IC 256), information inadéquate car pratique non validée ou recommandation non généralisable (IC 147) et absence de relecture après la conversion du document en format publiable (ex : PDF) (IC 144). Mesures correctives: Une procédure standard (SOP) a été élaborée pour la gestion du site intranet/Internet. Le format standard des informations (initiales de l'auteur, dates de création et de mise à jour, logo de la pharmacie), la validation et la politique de mise à jour des documents ainsi que la procédure d'archivage y sont clairement définis. Une fiche de suivi accompagnant chaque document a été créée pour la traçabilité de toutes les modifications effectuées et la fréquence de révision à respecter. Discussion et conclusion Cette étude a permis de déterminer et de quantifier les points critiques à améliorer sur le site intranet/Internet de la Pharmacie des HUG. Les mesures correctives entreprises doivent permettre d'améliorer les principales faiblesses et défaillances mises en évidence. La mise en place d'un comité éditorial et scientifique devra être évaluée à l'avenir. Le NetScoring et l'analyse AMDEC sont des outils utiles pour l'évaluation et l'amélioration continue de la qualité d'un site Internet, sous réserve d'une interprétation critique des résultats obtenus avant la mise en place de mesures correctives. Malgré une approche totalement différente, ces outils ont permis de mettre en évidence des lacunes similaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACTSchizophrenia is a major psychiatric disorder occurring with a prevalence of 1% in the worldwide population. It develops progressively with psychosis onset in late adolescence or earlyadulthood. The disorder can take many different facets and has a highly diffuse anddistributed neuropathology including deficits in major neurotransmitter systems,myelination, stress regulation, and metabolism. The delayed onset and the heterogeneouspathology suggest that schizophrenia is a developmental disease that arises from interplayof genetic and environmental factors during sensitive periods. Redox dysregulation due to animbalance between pro-oxidants and antioxidant defence mechanisms is among the riskfactors for schizophrenia. Glutathione (GSH) is the major cellular redox regulator andantioxidant. Levels of GSH are decreased in cerebrospinal fluid, prefrontal cortex and postmortemstriatum of schizophrenia patients. Moreover, polymorphisms of the key GSHsynthesizingenzyme, glutamate-cysteine ligase, modifier (GCLM) subunit, are associatedwith the disease, suggesting that GSH deficit is of genetic origin. Here we used miceknockout (KO) for the GCLM gene, which display chronic GSH deficit (~70 to 80% decrease)to investigate the direct link between redox dysregulation and schizophrenia. Accordingly,we evaluated whether GCLM KO compared to normal wildtype mice display behavioralchanges that relate to schizophrenia symptoms and whether their brains showmorphological, functional or metabolic alterations that resemble those in patients.Moreover, we exposed pubertal GCLM mice to repeated mild stress and measured theirhormonal and behavioral stress reactivity. Our data show that chronic GSH deficit isassociated with altered emotion- and stress-related behaviors, deficient prepulse inhibition,pronounced amphetamine-induced hyperlocomotion but normal spatial learning andworking memory. These changes represent important schizophrenia endophenotypes.Moreover, this particular pattern of change indicates impairment of the ventralhippocampus (VH) and related circuitry as opposed to the dorsal hippocampus (DH), which isimplicated in spatial information processing. This is consistent with a selective deficit ofparvalbumin positive interneurons and gamma oscillation in the VH but not DH. Increasedlevels of circulating stress hormones in KO mice following pubertal stress corroborate VHdysfunction as it is involved in negative feedback control of the stress response. VHstructural and functional deficits are frequently found in the schizophrenic brain. Metabolicevaluation of the developing GCLM KO anterior cortex using in vivo magnetic resonancespectroscopy revealed elevated glutamine (Gln), glutamate (Glu), Gln/Glu and N-acetylaspartate(NAA) during the pre-pubertal period. Similar changes are reported in earlyschizophrenia. Overall, we observe phenotypic anomalies in GSH deficient GCLM KO micethat correspond to major schizophrenia endophenotypes. This supports an important rolefor redox dysregulation in schizophrenia and validates the GCLM KO mouse as model for thedisease. Moreover, our results indicate that puberty may be a sensitive period for redoxsensitivechanges highliting the importance of early intervention. Gln, Gln/Glu, Glu and NAAmay qualify as early metabolic biomarkers to identify young at-risk individuals. Since chronictreatment with NAC normalized most metabolic changes in GCLM KO mice, NAC may be oneadjunct treatment of choice for early intervention in patients.RESUMELa schizophrénie est une maladie psychiatrique majeure avec une prévalence de 1% dans lapopulation. Son développement est progressif, les premières psychoses apparaissant àl'adolescence ou au début de l'âge adulte. La maladie a plusieurs présentations et uneneuropathologie étendue, qui inclut des déficits neurochimiques, métaboliques, de lamyélination et de la régulation du stress. L'émergence tardive et l'hétérogénéité de lapathologie suggèrent que la schizophrénie est une maladie développementale, favorisée pardes facteurs génétiques et environnementaux durant des périodes sensibles. La dérégulationrédox, due à un déséquilibre entre facteurs pro-oxidantes et défenses anti-oxidantes,constitue un facteur de risque. Le glutathion (GSH) est le principal régulateur rédox et antioxidantdes cellules, ses taux sont diminués dans le liquide céphalorachidien, le cortexpréfrontal et le striatum de patients. De plus, des variations du gène codant la sous-unitémodulatrice (GCLM) de la glutamate-cystéine ligase, enzyme de synthèse du GSH, sontassociés la maladie, suggérant que le déficit observé chez les patients est d'originegénétique. Nous avons donc utilisé des souris ayant une délétion du gène GCLM (KO), quiont un déficit chronique en GSH (70-80%), afin d'étudier le lien entre une dérégulation rédoxet la schizophrénie. Nous avons évalué si ces souris présentent des altérationscomportementales analogues aux symptômes de la maladie, et des modificationsstructurelles, fonctionnelles et métaboliques au niveau du cerveau, ressemblant à celles despatients. De plus, nous avons soumis les souris à des stresses modérés durant la puberté,puis mesuré les réponses hormonales et comportementales. Les animaux présentent undéficit pré-attentionnel du traitement des informations moto-sensorielles, un déficit pourcertains apprentissages, une réponse accrue à l'amphétamine, mais leurs mémoires spatialeet de travail sont préservées. Ces atteintes comportementales sont analogues à certainsendophénotypes de la schizophrénie. De plus, ces changements comportementaux sontlargement expliqués par une perturbation morphologique et fonctionnelle de l'hippocampeventral (HV). Ainsi, nous avons observé un déficit sélectif des interneurones immunoréactifsà la parvalbumine et une désynchronisation neuronale dans l'HV. L'hippocampe dorsal,impliqué dans l'orientation spatiale, demeure en revanche intact. L'augmentationd'hormones de stress dans le sang des souris KO suite à un stress prépubertal soutien aussil'hypothèse d'une dysfonction de l'HV, connu pour moduler ce type de réponse. Des déficitsstructurels et fonctionnels dans l'hippocampe antérieur (ventral) ont d'ailleurs été rapportéschez des patients schizophrènes. Par de résonance magnétique, nous avons également suivile profil métabolique du le cortex antérieur au cours du développement postnatal des sourisKO. Ces mesures ont révélé des taux élevés de glutamine (Gln), glutamate (Glu), du ratioGln/Glu, et de N-acétyl-aspartate (NAA) durant la période prépubertale. Des altérationssimilaires sont décrites chez les patients durant la phase précoce. Nous avons donc révélédes anomalies phénotypiques chez les souris GCLM KO qui reflètent certainsendophénotypes de la schizophrénie. Nos résultats appuient donc le rôle d'une dérégulationrédox dans l'émergence de la maladie et le potentiel des souris KO comme modèle. De plus,cette étude met en évidence la puberté comme période particulièrement sensible à unedérégulation rédox, renforçant l'importance d'une intervention thérapeutique précoce. Dansce cadre, Gln, Gln/Glu, Glu and NAA seraient des biomarqueurs clés pour identifier de jeunesindividus à risque. De part son efficacité dans notre modèle, NAC pourrait être unesubstance de choix dans le traitement précoce des patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME FRANCAIS Le premier chapitre de la thèse prend en considération le style des peintures murales du XIIe siècle à Toulouse, en Comminges, en Couserans, en Carcassonnais et en Roussillon. Chaque oeuvre est analysée de manière comparative avec les autres oeuvres de la même région. Dans la conclusion, on propose de reconnaître l'existence d'au moins trois - peut-être quatre - centres de production de peinture murale, qui exercent leur influence sur la production de la région. La ville de Toulouse se présente comme une véritable capitale régionale en matière de peinture murale. La découverte d'une inscription qui permet de dater une partie des décors de Saint-Sernin à l'année près constitue l'acquis majeur de cette partie. Le deuxième chapitre est consacré à l'analyse de l'iconographie de la Passion du Christ dans les peintures de Saint-Sernin de Toulouse, Saint-Plancard et Montgauch. L'on étudie ici lés valeurs ecclésiales et le thème de la rénovation dans l'iconographie de la Passion. L'étude explore aussi la notion de «lieu rituel » et la fonction spatiale des peintures dans l'édifice. Elle propose d'identifier des réaménagements du lieu selon l'exhibition d'un discours portant sur l'identité religieuse et l'autorité temporelle de l'Église, en coïncidence avec différentes facettes de la Réforme au XIIe siècle, dont l'étude a retrouvé certaines sources écrites. La troisième partie de la thèse est occupée par « le corpus des oeuvres », base documentaire de notre travail comportant les données historiques, architecturales, techniques, épigraphiques et bibliographiques de chaque oeuvre. RESUME ANGLAIS The first chapter of the dissertation takes into consideration the style of mural painting in Toulouse, Comminges, Couserans, Carcassonnais and Roussillon. Each work is studied in a comparative way with the other paintings of the same region. In the conclusion, we propose to recognise the existence of at least three - maybe four - centres of production of mural painting, influencing the production of the region. The city of Toulouse represents a real capital for the region in terms of mural painting. The discovery of an inscription that dates a part of the paintings of Saint-Sernin is the major result of this part. The second chapter is devoted to the analysis of the iconography of Christ's Passion in the mural paintings of Saint-Sernin of Toulouse, Saint-Plancard and Montgauch. The enquiry explores the ecclesiastical values and the theme of renovatio in this iconography, as well as the notion of "ritual place" and the spatial function of the paintings in the building. It identifies the redevelopment of places according to the exhibition of a speech on the religious identity and the temporal authority of the Church. These meanings coincide with different aspects of the XIIth century Reform, evidenced by unpublished sources. The third part of the dissertation is the "corpus", a documentary base for the whole enquiry composed by information on the historical background, the architecture, the paintings' techniques, and the epigraphic data of each work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les crues et les risques de débordement des barrages, notamment des digues en terre, en cas de fortes précipitations, préoccupent depuis longtemps les autorités et la population. Les études réalisées dans les dernières années ont montré que le réchauffement global du climat s'est accompagné d'une augmentation de la fréquence des fortes précipitations et des crues en Suisse et dans de nombreuses régions du globe durant le 20ème siècle. Les modèles climatiques globaux et régionaux prévoient que la fréquence des fortes précipitations devrait continuer à croître durant le 21éme siècle en Suisse et dans le monde. Cela rend les recherches actuelles sur la modélisation des pluies et des crues à une échelle fine encore plus importantes. En Suisse, pour assurer une bonne protection sur le plan humain et économique, des cartes de précipitations maximales probables (PMP) ont été réalisées. Les PMP ont été confrontées avec les précipitations extrêmes mesurées dans les différentes régions du pays. Ces PMP sont ensuite utilisées par les modèles hydrologiques pour calculer des crues maximales probables (PMF). Cette la méthode PMP-PMF nécessite toutefois un certain nombre de précautions. Si elle est appliquée d'une manière incorrecte ou sur la base de données insuffisantes, elle peut entraîner une surestimation des débits de crue, notamment pour les grands bassins et pour les régions montagneuses entraînant des surcoûts importants. Ces problèmes résultent notamment du fait que la plupart des modèles hydrologiques répartissent les précipitations extrêmes (PMP) de manière uniforme dans le temps sur l'ensemble du bassin versant. Pour remédier ce problème, cette thèse a comme objectif principal de développer un modèle hydrologique distribué appelé MPF (Modeling Precipitation Flood) capable d'estimer la PMF de manière réaliste à partir de la PMP distribuée de manière spatio-temporelle à l'aide des nuages. Le modèle développé MPF comprend trois parties importantes. Dans la première partie, les précipitations extrêmes calculées par un modèle météorologique à une méso-échelle avec une résolution horizontale de 2 km, sont réparties à une échelle locale (25 ou 50 m) de manière non-uniforme dans l'espace et dans le temps. La deuxième partie concerne la modélisation de l'écoulement de l'eau en surface et en subsurface en incluant l'infiltration et l'exfiltration. Et la troisième partie inclut la modélisation de la fonte des neiges, basée sur un calcul de transfert de chaleur. Le modèle MPF a été calibré sur des bassins versants alpins où les données de précipitations et du débit sont disponibles pour une période considérablement longue, qui inclut plusieurs épisodes de fortes pluies avec des débits élevés. À partir de ces épisodes, les paramètres d'entrée du modèle tel que la rugosité du sol et la largeur moyenne des cours d'eau dans le cas d'écoulement de surface ont pu être estimés. Suivant la même procédure, les paramètres utilisés dans la simulation des écoulements en subsurface sont également estimés indirectement, puisque des mesures directes de l'écoulement en subsurface et de l'exfiltration sont difficiles à obtenir. Le modèle de distribution spatio-temporelle de la pluie a aussi été validé en utilisant les images radar avec la structure de la pluie provoquée par un nuage supercellulaire. Les hyétogrammes obtenus sur plusieurs points du terrain sont très proches de ceux enregistrées avec les images radar. Les résultats de la validation du modèle sur les épisodes de fortes crues présentent une bonne synchronisation entre le débit simulé et le débit observé. Cette corrélation a été mesurée avec trois critères d'efficacité, qui ont tous donné des valeurs satisfaisantes. Cela montre que le modèle développé est valide et il peut être utilisé pour des épisodes extrêmes tels que la PMP. Des simulations ont été faites sur plusieurs bassins ayant comme données d'entrée la pluie de type PMP. Des conditions variées ont été utilisées, comme la situation du sol saturé, ou non-saturé, ou la présence d'une couche de neige sur le terrain au moment de la PMP, ce qui conduit à une estimation de PMF pour des scénarios catastrophiques. Enfin, les résultats obtenus montrent comment mieux estimer la valeur de la crue de sécurité des barrages, à partir d'une pluie extrême dix-millennale avec une période de retour de 10'000 ans.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La thématique de cette thèse peut être résumée par le célèbre paradoxe de biologie évolutive sur le maintien du polymorphisme face à la sélection et par l'équation du changement de fréquence gamétique au cours du temps dû, à la sélection. La fréquence d'un gamète xi à la génération (t + 1) est: !!!Equation tronquée!!! Cette équation est utilisée pour générer des données utlisée tout au long de ce travail pour 2, 3 et 4 locus dialléliques. Le potentiel de l'avantage de l'hétérozygote pour le maintien du polymorphisme est le sujet de la première partie. La définition commune de l'avantage de l'hétérozygote n'etant applicable qu'a un locus ayant 2 allèles, cet avantage est redéfini pour un système multilocus sur les bases de précédentes études. En utilisant 5 définitions différentes de l'avantage de l'hétérozygote, je montre que cet avantage ne peut être un mécanisme général dans le maintien du polymorphisme sous sélection. L'étude de l'influence de locus non-détectés sur les processus évolutifs, seconde partie de cette thèse, est motivée par les travaux moléculaires ayant pour but de découvrir le nombre de locus codant pour un trait. La plupart de ces études sous-estiment le nombre de locus. Je montre que des locus non-détectés augmentent la probabilité d'observer du polymorphisme sous sélection. De plus, les conclusions sur les facteurs de maintien du polymorphisme peuvent être trompeuses si tous les locus ne sont pas détectés. Dans la troisième partie, je m'intéresse à la valeur attendue de variance additive après un goulot d'étranglement pour des traits sélectionés. Une études précédente montre que le niveau de variance additive après goulot d'étranglement augmente avec le nombre de loci. Je montre que le niveau de variance additive après un goulot d'étranglement augmente (comparé à des traits neutres), mais indépendamment du nombre de loci. Par contre, le taux de recombinaison a une forte influence, entre autre en regénérant les gamètes disparus suite au goulot d'étranglement. La dernière partie de ce travail de thèse décrit un programme pour le logiciel de statistique R. Ce programme permet d'itérer l'équation ci-dessus en variant les paramètres de sélection, recombinaison et de taille de populations pour 2, 3 et 4 locus dialléliques. Cette thèse montre qu'utiliser un système multilocus permet d'obtenir des résultats non-conformes à ceux issus de systèmes rnonolocus (la référence en génétique des populations). Ce programme ouvre donc d'intéressantes perspectives en génétique des populations. Abstract The subject of this PhD thesis can be summarized by one famous paradox of evolu-tionary biology: the maintenance of polymorphism in the face of selection, and one classical equation of theoretical population genetics: the changes in gametic frequencies due to selection and recombination. The frequency of gamete xi at generation (t + 1) is given by: !!! Truncated equation!!! This equation is used to generate data on selection at two, three, and four diallelic loci for the different parts of this work. The first part focuses on the potential of heterozygote advantage to maintain genetic polymorphism. Results of previous studies are used to (re)define heterozygote advantage for multilocus systems, since the classical definition is for one diallelic locus. I use 5 different definitions of heterozygote advantage. And for these five definitions, I show that heterozygote advantage is not a general mechanism for the maintenance of polymorphism. The study of the influence of undetected loci on evolutionary processes (second part of this work) is motivated by molecular works which aim at discovering the loci coding for a trait. For most of these works, some coding loci remains undetected. I show that undetected loci increases the probability of maintaining polymorphism under selection. In addition, conclusions about the factor that maintain polymorphism can be misleading if not all loci are considered. This is, therefore, only when all loci are detected that exact conclusions on the level of maintained polymorphism or on the factor(s) that maintain(s) polymorphism could be drawn. In the third part, the focus is on the expected release of additive genetic variance after bottleneck for selected traits. A previous study shows that the expected release of additive variance increases with an increase in the number of loci. I show that the expected release of additive variance after bottleneck increases for selected traits (compared with neutral), but this increase is not a function of the number of loci, but function of the recombination rate. Finally, the last part of this PhD thesis is a description of a package for the statistical software R that implements the Equation given above. It allows to generate data for different scenario regarding selection, recombination, and population size. This package opens perspectives for the theoretical population genetics that mainly focuses on one locus, while this work shows that increasing the number of loci leads not necessarily to straightforward results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse présentée ici est le résultat d'une étroite collaboration avec une ONG indienne, AKRSP(I), intervenant dans le développement de l'irrigation au Gujarat depuis plus de 25 ans. Un SIG prototype a été mis en oeuvre et nous permet de proposer ime analyse spatiale et quantitative de l'action de cette ONG ainsi qu'une réflexion plus générale sur les leviers de mise en valeur et de gestion des ressources en eau à des fins agricoles. On peut souligner trois principaux enseignements: Les perspectives d'application des SIG au sein des ONG sont manifestes. Les exigences des bailleurs de fonds peuvent néanmoins faire obstacle à leur développement car, indi-rectement, ils favorisent la mise en oeuvre de SI voués à la justification plutôt qu'à la planification et au suivi des programmes d'actions. Ce résultat soulève la question de la pertinence de l'encadrement, des critères d'évaluation et de la conditionnalité de l'aide publique au développement. Les ONG ont un fort potentiel pour participer à la mise en valeur des ressources en eau en Inde et aider à relever le défi agro-démographique indien, en particulier dans les zones marginales où les services étatiques sont en retrait. Les stratégies d'action basées principalement sur l'application des instruments économiques et techniques doivent cependant être modifiées. Nous montrons qu'elles favorisent une inégalité d'accès aux ressources qui débouche sur une efficacité limitée des pratiques d'irrigation, sur un plan agro-technique. Ces résultats soulignent la nécessité de poursuivre une réflexion critique des discours et solutions dominants en matière de gestion des ressources en eau. Deux pistes d'amélioration sont avancées: 1. considérer l'équité d'accès comme un moyen d'optimiser la gestion de la ressource (limiter le volume d'eau par agriculteur pour encourager les choix de cultures irriguées peu consommatrices et l'adoption des technologies d'économie d'eau), 2. prêter attention à l'ordre dans lequel les différents instruments de gestion disponibles sont employés afin de les articuler dans un séquençage temporel pertinent. La Political Ecology apparait comme un cadre conceptuel très pertinent pour engager cette réflexion critique. Elle permet d'intégrer différentes échelles d'asymétries de pouvoirs à la compréhension des situations et des blocages observables localement : inégalités de capabilités et forces socio-politiques à l'échelle locale, politiques agro-industrielles (coton) et jeux d'alliances politiques des castes à l'échelle nationale, discours et conflits idéologiques ou orientations stratégiques des bailleurs de fonds à l'échelle internationale... Notre recherche empirique contribue modestement au développement de cette Political Ecology de la mise en valeur et de la gestion des ressources en eau. - The present research is based on a close collaboration with an indian NGO, AKRSP(I), which is active in the development of irrigation facilities in Gujarat for the past 25 years. We built a GIS prototype providing quantitative and spatial datas to analyse the NGO intervention and propose a general reflection about water resources development and management issues. Three main findings may be emphasized : The potential of GIS within the workings of an NGO is obvious, as an information ma-nagement tool as much as for developing analytical capacity. However, financial backers expectations may not favour a relevant development of this technology. Indirectly, they promote Information Systems built to justify rather than to plan or monitor action pro¬grammes. This raises the question of stricter framework, conditionality criters and stan¬dardised assessment indicators surrounding official development assistance. There is strong potential that NGOs can assist with the improvement of water resources in India. They can help in overcoming Indian demographic-related agricultural challenges, especially in marginal rural areas neglected by state services. However, intervention strategies mainly based on technical and economic management tools has to be adapted. We found that they lead to inequitable access and distribution of water resources what induces a low efficiency of irrigation practices from an agro-technical point of view. These results underline the need to go further in criticizing dominant ideas and guidelines regarding water resources management. We suggest two other options : 1. to consider equitable access has a tool to improve the effective use of water for agricul¬tural purposes (limiting the volume of water available per farmer would encourage them to adopt low water consumption crops and water saving technics), 2. to consider more carefully the order of use of the various management tools available and to structure them in a relevant sequence. Here, Political Ecology seems to be a relevant conceptual framework to enter into such a critical reflection, integrating different levels and scales of political asymmetries at the core of environmental issues. Indeed, the understanding of regional water situations and social stumbling blocks needs not only to consider local capabilities and socio-political inequities, but also agro-industrial policy (e.i. cotton) and caste political alliances at a national scale, as well as ideological and narrative struggles or strategical orientations of financial backers at an international level. Our empirical research modestly contributes to the development of such a Political Ecology of water resources development and management.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract Textual autocorrelation is a broad and pervasive concept, referring to the similarity between nearby textual units: lexical repetitions along consecutive sentences, semantic association between neighbouring lexemes, persistence of discourse types (narrative, descriptive, dialogal...) and so on. Textual autocorrelation can also be negative, as illustrated by alternating phonological or morpho-syntactic categories, or the succession of word lengths. This contribution proposes a general Markov formalism for textual navigation, and inspired by spatial statistics. The formalism can express well-known constructs in textual data analysis, such as term-document matrices, references and hyperlinks navigation, (web) information retrieval, and in particular textual autocorrelation, as measured by Moran's I relatively to the exchange matrix associated to neighbourhoods of various possible types. Four case studies (word lengths alternation, lexical repulsion, parts of speech autocorrelation, and semantic autocorrelation) illustrate the theory. In particular, one observes a short-range repulsion between nouns together with a short-range attraction between verbs, both at the lexical and semantic levels. Résumé: Le concept d'autocorrélation textuelle, fort vaste, réfère à la similarité entre unités textuelles voisines: répétitions lexicales entre phrases successives, association sémantique entre lexèmes voisins, persistance du type de discours (narratif, descriptif, dialogal...) et ainsi de suite. L'autocorrélation textuelle peut être également négative, comme l'illustrent l'alternance entre les catégories phonologiques ou morpho-syntaxiques, ou la succession des longueurs de mots. Cette contribution propose un formalisme markovien général pour la navigation textuelle, inspiré par la statistique spatiale. Le formalisme est capable d'exprimer des constructions bien connues en analyse des données textuelles, telles que les matrices termes-documents, les références et la navigation par hyperliens, la recherche documentaire sur internet, et, en particulier, l'autocorélation textuelle, telle que mesurée par le I de Moran relatif à une matrice d'échange associée à des voisinages de différents types possibles. Quatre cas d'étude illustrent la théorie: alternance des longueurs de mots, répulsion lexicale, autocorrélation des catégories morpho-syntaxiques et autocorrélation sémantique. On observe en particulier une répulsion à courte portée entre les noms, ainsi qu'une attraction à courte portée entre les verbes, tant au niveau lexical que sémantique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les problèmes d'écoulements multiphasiques en média poreux sont d'un grand intérêt pour de nombreuses applications scientifiques et techniques ; comme la séquestration de C02, l'extraction de pétrole et la dépollution des aquifères. La complexité intrinsèque des systèmes multiphasiques et l'hétérogénéité des formations géologiques sur des échelles multiples représentent un challenge majeur pour comprendre et modéliser les déplacements immiscibles dans les milieux poreux. Les descriptions à l'échelle supérieure basées sur la généralisation de l'équation de Darcy sont largement utilisées, mais ces méthodes sont sujettes à limitations pour les écoulements présentant de l'hystérèse. Les avancées récentes en terme de performances computationnelles et le développement de méthodes précises pour caractériser l'espace interstitiel ainsi que la distribution des phases ont favorisé l'utilisation de modèles qui permettent une résolution fine à l'échelle du pore. Ces modèles offrent un aperçu des caractéristiques de l'écoulement qui ne peuvent pas être facilement observées en laboratoire et peuvent être utilisé pour expliquer la différence entre les processus physiques et les modèles à l'échelle macroscopique existants. L'objet premier de la thèse se porte sur la simulation numérique directe : les équations de Navier-Stokes sont résolues dans l'espace interstitiel et la méthode du volume de fluide (VOF) est employée pour suivre l'évolution de l'interface. Dans VOF, la distribution des phases est décrite par une fonction fluide pour l'ensemble du domaine et des conditions aux bords particulières permettent la prise en compte des propriétés de mouillage du milieu poreux. Dans la première partie de la thèse, nous simulons le drainage dans une cellule Hele-Shaw 2D avec des obstacles cylindriques. Nous montrons que l'approche proposée est applicable même pour des ratios de densité et de viscosité très importants et permet de modéliser la transition entre déplacement stable et digitation visqueuse. Nous intéressons ensuite à l'interprétation de la pression capillaire à l'échelle macroscopique. Nous montrons que les techniques basées sur la moyenne spatiale de la pression présentent plusieurs limitations et sont imprécises en présence d'effets visqueux et de piégeage. Au contraire, une définition basée sur l'énergie permet de séparer les contributions capillaires des effets visqueux. La seconde partie de la thèse est consacrée à l'investigation des effets d'inertie associés aux reconfigurations irréversibles du ménisque causé par l'interface des instabilités. Comme prototype pour ces phénomènes, nous étudions d'abord la dynamique d'un ménisque dans un pore angulaire. Nous montrons que, dans un réseau de pores cubiques, les sauts et reconfigurations sont si fréquents que les effets d'inertie mènent à différentes configurations des fluides. A cause de la non-linéarité du problème, la distribution des fluides influence le travail des forces de pression, qui, à son tour, provoque une chute de pression dans la loi de Darcy. Cela suggère que ces phénomènes devraient être pris en compte lorsque que l'on décrit l'écoulement multiphasique en média poreux à l'échelle macroscopique. La dernière partie de la thèse s'attache à démontrer la validité de notre approche par une comparaison avec des expériences en laboratoire : un drainage instable dans un milieu poreux quasi 2D (une cellule Hele-Shaw avec des obstacles cylindriques). Plusieurs simulations sont tournées sous différentes conditions aux bords et en utilisant différents modèles (modèle intégré 2D et modèle 3D) afin de comparer certaines quantités macroscopiques avec les observations au laboratoire correspondantes. Malgré le challenge de modéliser des déplacements instables, où, par définition, de petites perturbations peuvent grandir sans fin, notre approche numérique apporte de résultats satisfaisants pour tous les cas étudiés. - Problems involving multiphase flow in porous media are of great interest in many scientific and engineering applications including Carbon Capture and Storage, oil recovery and groundwater remediation. The intrinsic complexity of multiphase systems and the multi scale heterogeneity of geological formations represent the major challenges to understand and model immiscible displacement in porous media. Upscaled descriptions based on generalization of Darcy's law are widely used, but they are subject to several limitations for flow that exhibit hysteric and history- dependent behaviors. Recent advances in high performance computing and the development of accurate methods to characterize pore space and phase distribution have fostered the use of models that allow sub-pore resolution. These models provide an insight on flow characteristics that cannot be easily achieved by laboratory experiments and can be used to explain the gap between physical processes and existing macro-scale models. We focus on direct numerical simulations: we solve the Navier-Stokes equations for mass and momentum conservation in the pore space and employ the Volume Of Fluid (VOF) method to track the evolution of the interface. In the VOF the distribution of the phases is described by a fluid function (whole-domain formulation) and special boundary conditions account for the wetting properties of the porous medium. In the first part of this thesis we simulate drainage in a 2-D Hele-Shaw cell filled with cylindrical obstacles. We show that the proposed approach can handle very large density and viscosity ratios and it is able to model the transition from stable displacement to viscous fingering. We then focus on the interpretation of the macroscopic capillary pressure showing that pressure average techniques are subject to several limitations and they are not accurate in presence of viscous effects and trapping. On the contrary an energy-based definition allows separating viscous and capillary contributions. In the second part of the thesis we investigate inertia effects associated with abrupt and irreversible reconfigurations of the menisci caused by interface instabilities. As a prototype of these phenomena we first consider the dynamics of a meniscus in an angular pore. We show that in a network of cubic pores, jumps and reconfigurations are so frequent that inertia effects lead to different fluid configurations. Due to the non-linearity of the problem, the distribution of the fluids influences the work done by pressure forces, which is in turn related to the pressure drop in Darcy's law. This suggests that these phenomena should be taken into account when upscaling multiphase flow in porous media. The last part of the thesis is devoted to proving the accuracy of the numerical approach by validation with experiments of unstable primary drainage in a quasi-2D porous medium (i.e., Hele-Shaw cell filled with cylindrical obstacles). We perform simulations under different boundary conditions and using different models (2-D integrated and full 3-D) and we compare several macroscopic quantities with the corresponding experiment. Despite the intrinsic challenges of modeling unstable displacement, where by definition small perturbations can grow without bounds, the numerical method gives satisfactory results for all the cases studied.