648 resultados para Données génétiques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract Working memory has been defined as the ability to maintain and manipulate on-line a limited amount of information. A large number of studies have investigated visuospatial working memory in schizophrenia. However, today, the available data concerning the functioning of these processes in schizophrenia are largely controversial. These inconclusive results are due to incomplete knowledge on processes involved in visuospatial working memory tasks. Recent studies suggest that visuospatial working memory processes may be divided into an active monitoring and a storing components. Furthermore, it has been shown that visuospatial working memory processes are strongly interconnected with early encoding processes (perceptual organization). In our view, the two working memory components, and the relationship that they entertain with early encoding processes, may be investigated using dynamic and static visuospatial stimuli in a working memory paradigm. In this thesis we aim at comparing dynamic and static visuospatial working memory processes in patients with schizophrenia and first-episode of psychosis patients. This analysis may clarify the functioning of visuospatial working memory and the dysfunction of these processes in schizophrenia. Our results are in accord with the hypothesis of two visuospatial working memory subcomponents. Dynamic, rather than static, stimuli are strongly involved in the visuospatial working memory encoding process. Indeed, the results are congruent with the idea that static stimuli may be strongly encoded by parallel perceptual organization processes. Patients with schizophrenia show important deficits in both working memory and perceptual organization encoding processes. In contrast, perceptual organization processes seem spared in firstepisodepsychosis patients. Considering our findings, we propose a model to explain the degradation of visuospatial processes involved in a working memory task during schizophrenia. Résumé: La mémoire de travail est définie comme la capacité à maintenir et manipuler « on-line » un nombre limité d'informations pour une courte période de temps (de l'ordre de quelques dizaines de secondes). Un grand nombre d'études a montré que les processus de mémoire de travail visuo spatiale peuvent être affectés dans la schizophrénie. Malgré cela, les données concernant les déficits de ces processus chez des patients qui souffrent de schizophrénie sont contradictoires. La difficulté de comprendre la nature des déficits de mémoire de travail visuospatiale dans la schizophrénie est en grande partie imputable aux connaissances encore lacunaires sur le fonctionnement de ces processus dans un état non pathologique. Dans cette thèse, on cherche à élucider le fonctionnement des processus de mémoire de travail visuospatiale. Pour cela, on a créé un nouveau paradigme qui sollicite ce type de mémoire. Dans ce paradigme, on présente des stimuli dynamiques et statiques. Après un court délai, le sujet doit reconnaître le stimulus qu'il a visualisé parmi six possibilités. Sur la base de récentes études neurophysiologiques, neuroanatomiques et psychologiques, nous avançons l'hypothèse que l'encodage de stimuli dynamiques et statiques repose sur deux processus distincts de mémoire de travail : un processus d'organisation qui manipule les informations sensorielles et un processus dé stockage qui est responsable du maintien de l'information au cours de la manipulation. Ces processus sont en relation directe avec les processus responsables d'une organisation de l'information à un niveau précoce du traitement visuel. Les études présentées dans cette thèse ont pour but de vérifier la pertinence de la distinction entre les processus de mémoire de travail visuospatiale, selon la modalité «dynamique » ou «statique ». L'investigation des processus dynamiques et statiques de mémoire de travail dans la schizophrénie présente deux avantages principaux. Premièrement, 1a pathologie pourrait permettre de mettre en évidence, par les dysfonctionnements qu'elle présente, la pertinence des hypothèses sur le fonctionnement des processus de mémoire de travail visuospatiale et de leur interaction avec les processus sensoriels. Deuxièmement, ces investigations rendent possible une analyse des dysfonctions des différents processus dans la schizophrénie. Dans cette thèse, on analyse aussi les processus de mémoire de travail «dynamiques » et «statiques » chez des sujets dans une phase initiale de la psychose. Les résultats de cette étude permettent de faire une comparaison avec ceux obtenus avec des patients qui souffrent de schizophrénie. Cette comparaison peut apporter des informations intéressantes sur l'évolution des dysfonctions dans les processus impliqués dans les fonctions de mémoire de travail visuospatiale au cours de la schizophrénie. Les résultats obtenus dans les différentes études sont cohérents avec l'hypothèse d'une implication différente des processus d'organisation de la mémoire de travail sur des stimuli dynamiques et statiques. -Nos résultats montrent que les processus de mémoire de travail responsables de l'organisation (manipulation active) des informations est déficitaire dans la schizophrénie. Ce déficit semble jouer un rôle de premier plan dans la dégradation des processus visuospatiaux au cours de la schizophrénie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent findings suggest an association between exposure to cleaning products and respiratory dysfunctions including asthma. However, little information is available about quantitative airborne exposures of professional cleaners to volatile organic compounds deriving from cleaning products. During the first phases of the study, a systematic review of cleaning products was performed. Safety data sheets were reviewed to assess the most frequently added volatile organic compounds. It was found that professional cleaning products are complex mixtures of different components (compounds in cleaning products: 3.5 ± 2.8), and more than 130 chemical substances listed in the safety data sheets were identified in 105 products. The main groups of chemicals were fragrances, glycol ethers, surfactants, solvents; and to a lesser extent phosphates, salts, detergents, pH-stabilizers, acids, and bases. Up to 75% of products contained irritant (Xi), 64% harmful (Xn) and 28% corrosive (C) labeled substances. Hazards for eyes (59%), skin (50%) and by ingestion (60%) were the most reported. Monoethanolamine, a strong irritant and known to be involved in sensitizing mechanisms as well as allergic reactions, is frequently added to cleaning products. Monoethanolamine determination in air has traditionally been difficult and air sampling and analysis methods available were little adapted for personal occupational air concentration assessments. A convenient method was developed with air sampling on impregnated glass fiber filters followed by one step desorption, gas chromatography and nitrogen phosphorous selective detection. An exposure assessment was conducted in the cleaning sector, to determine airborne concentrations of monoethanolamine, glycol ethers, and benzyl alcohol during different cleaning tasks performed by professional cleaning workers in different companies, and to determine background air concentrations of formaldehyde, a known indoor air contaminant. The occupational exposure study was carried out in 12 cleaning companies, and personal air samples were collected for monoethanolamine (n=68), glycol ethers (n=79), benzyl alcohol (n=15) and formaldehyde (n=45). All but ethylene glycol mono-n-butyl ether air concentrations measured were far below (<1/10) of the Swiss eight hours occupational exposure limits, except for butoxypropanol and benzyl alcohol, where no occupational exposure limits were available. Although only detected once, ethylene glycol mono-n-butyl ether air concentrations (n=4) were high (49.5 mg/m3 to 58.7 mg/m3), hovering at the Swiss occupational exposure limit (49 mg/m3). Background air concentrations showed no presence of monoethanolamine, while the glycol ethers were often present, and formaldehyde was universally detected. Exposures were influenced by the amount of monoethanolamine in the cleaning product, cross ventilation and spraying. The collected data was used to test an already existing exposure modeling tool during the last phases of the study. The exposure estimation of the so called Bayesian tool converged with the measured range of exposure the more air concentrations of measured exposure were added. This was best described by an inverse 2nd order equation. The results suggest that the Bayesian tool is not adapted to predict low exposures. The Bayesian tool should be tested also with other datasets describing higher exposures. Low exposures to different chemical sensitizers and irritants should be further investigated to better understand the development of respiratory disorders in cleaning workers. Prevention measures should especially focus on incorrect use of cleaning products, to avoid high air concentrations at the exposure limits. - De récentes études montrent l'existence d'un lien entre l'exposition aux produits de nettoyages et les maladies respiratoires telles que l'asthme. En revanche, encore peu d'informations sont disponibles concernant la quantité d'exposition des professionnels du secteur du nettoyage aux composants organiques volatiles provenant des produits qu'ils utilisent. Pendant la première phase de cette étude, un recueil systématique des produits professionnels utilisés dans le secteur du nettoyage a été effectué. Les fiches de données de sécurité de ces produits ont ensuite été analysées, afin de répertorier les composés organiques volatiles les plus souvent utilisés. Il a été mis en évidence que les produits de nettoyage professionnels sont des mélanges complexes de composants chimiques (composants chimiques dans les produits de nettoyage : 3.5 ± 2.8). Ainsi, plus de 130 substances listées dans les fiches de données de sécurité ont été retrouvées dans les 105 produits répertoriés. Les principales classes de substances chimiques identifiées étaient les parfums, les éthers de glycol, les agents de surface et les solvants; dans une moindre mesure, les phosphates, les sels, les détergents, les régulateurs de pH, les acides et les bases ont été identifiés. Plus de 75% des produits répertoriés contenaient des substances décrites comme irritantes (Xi), 64% nuisibles (Xn) et 28% corrosives (C). Les risques pour les yeux (59%), la peau (50%) et par ingestion (60%) était les plus mentionnés. La monoéthanolamine, un fort irritant connu pour être impliqué dans les mécanismes de sensibilisation tels que les réactions allergiques, est fréquemment ajouté aux produits de nettoyage. L'analyse de la monoéthanolamine dans l'air a été habituellement difficile et les échantillons d'air ainsi que les méthodes d'analyse déjà disponibles étaient peu adaptées à l'évaluation de la concentration individuelle d'air aux postes de travail. Une nouvelle méthode plus efficace a donc été développée en captant les échantillons d'air sur des filtres de fibre de verre imprégnés, suivi par une étape de désorption, puis une Chromatographie des gaz et enfin une détection sélective des composants d'azote. Une évaluation de l'exposition des professionnels a été réalisée dans le secteur du nettoyage afin de déterminer la concentration atmosphérique en monoéthanolamine, en éthers de glycol et en alcool benzylique au cours des différentes tâches de nettoyage effectuées par les professionnels du nettoyage dans différentes entreprises, ainsi que pour déterminer les concentrations atmosphériques de fond en formaldéhyde, un polluant de l'air intérieur bien connu. L'étude de l'exposition professionnelle a été effectuée dans 12 compagnies de nettoyage et les échantillons d'air individuels ont été collectés pour l'éthanolamine (n=68), les éthers de glycol (n=79), l'alcool benzylique (n=15) et le formaldéhyde (n=45). Toutes les substances mesurées dans l'air, excepté le 2-butoxyéthanol, étaient en-dessous (<1/10) de la valeur moyenne d'exposition aux postes de travail en Suisse (8 heures), excepté pour le butoxypropanol et l'alcool benzylique, pour lesquels aucune valeur limite d'exposition n'était disponible. Bien que détecté qu'une seule fois, les concentrations d'air de 2-butoxyéthanol (n=4) étaient élevées (49,5 mg/m3 à 58,7 mg/m3), se situant au-dessus de la frontière des valeurs limites d'exposition aux postes de travail en Suisse (49 mg/m3). Les concentrations d'air de fond n'ont montré aucune présence de monoéthanolamine, alors que les éthers de glycol étaient souvent présents et les formaldéhydes quasiment toujours détectés. L'exposition des professionnels a été influencée par la quantité de monoéthanolamine présente dans les produits de nettoyage utilisés, par la ventilation extérieure et par l'emploie de sprays. Durant la dernière phase de l'étude, les informations collectées ont été utilisées pour tester un outil de modélisation de l'exposition déjà existant, l'outil de Bayesian. L'estimation de l'exposition de cet outil convergeait avec l'exposition mesurée. Cela a été le mieux décrit par une équation du second degré inversée. Les résultats suggèrent que l'outil de Bayesian n'est pas adapté pour mettre en évidence les taux d'expositions faibles. Cet outil devrait également être testé avec d'autres ensembles de données décrivant des taux d'expositions plus élevés. L'exposition répétée à des substances chimiques ayant des propriétés irritatives et sensibilisantes devrait être investiguée d'avantage, afin de mieux comprendre l'apparition de maladies respiratoires chez les professionnels du nettoyage. Des mesures de prévention devraient tout particulièrement être orientées sur l'utilisation correcte des produits de nettoyage, afin d'éviter les concentrations d'air élevées se situant à la valeur limite d'exposition acceptée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mousse haplobiontique Physcomitrella patens est utilisée comme système génétique modèle pour l'étude du développement des plantes. Cependant, l'absence d'un protocole efficace de transformation a constitué jusqu'à présent un gros désavantage méthodologique pour le développement futur de ce système expérimental. Les résultats présentés dans le premier chapitre relatent la mise au point d'un protocole de transformation basé sur la technique de transfert direct de gènes dans des protoplastes par précipitation au PEG. Un essai d'expression transitoire de gènes a été mis au point. Ce protocole a été adapté afin de permettre l'introduction in vivo d'anticorps dans des protoplastes. Le protocole modifié permet d'introduire simultanément du DNA et des IgG dans les cellules, et nous avons démontré que ces anticorps peuvent inactiver spécifiquement le produit d'un gène co-introduit (GUS), ainsi que certaines protéines impliquées dans des processus cellulaires (tubuline). Cet essai, baptisé "essai transitoire d'immuno-inactivation in vivo", devrait être directement applicable à d'autres protoplastes végétaux, et permettre l'élaboration de nouvelles stratégies dans l'étude de processus cellulaires. Le second chapitre est consacré aux expériences de transformation de la mousse avec des gènes conférant une résistance à des antibiotiques. Nos résultats démontrent que l'intégration de gènes de résistance dans le génome de P. patens est possible, mais que cet événement est rare. Il s'agit là néanmoins de la première démonstration d'une transformation génétique réussie de cet organisme. L'introduction de gènes de résistance aux antibiotiques dans les protoplastes de P. patens génère à haute fréquence des clones résistants instables. Deux classes de clones instables ont été identifiés. La caractérisation phénotypique, génétique et moléculaire de ces clones suggère fortement que les séquences transformantes sont concaténées pour former des structures de haut poids moléculaire, et que ces structures sont efficacement répliquées et maintenues dans les cellules résistantes en tant qu'éléments génétiques extrachromosomaux. Ce type de transformation nous permet d'envisager des expériences permettant l'identification des séquences génomiques impliquées dans la replication de l'ADN de mousse. Plusieurs lignées transgéniques ont été retransformées avec des plasmides portant des séquences homologues aux séquences intégrées dans le génome, mais conférant une résistance à un autre antibiotique. Les résultats présentés dans le troisième chapitre montrent que les fréquences de transformation intégrative dans les lignées transgéniques sont 10 fois plus élevées que dans la lignée sauvage, et que cette augmentation est associée à une coségrégation des gènes de résistance dans la plupart des clones testés. Ces résultats génétiques indiquent que l'intégration de séquences d'ADN étranger dans le génome de P. patens a lieu en moyenne 10 fois plus fréquemment par recombinaison homologue que par intégration aléatoire. Ce rapport homologue/aléatoire est 10000 fois supérieur aux rapports obtenus avec d'autres plantes, et fournit l'outil indispensable à la réalisation d'expériences de génétique inverse dans cet organisme à haplophase dominante. THESIS SUMMARY The moss Physcomitrella patens is used as a model genetic system to study plant development, taking advantage of the fact that the haploid gametophyte dominates in its life cycle. But further development of this model system was hampered by the lack of a protocol allowing the genetic transformation of this plant. We have developed a transformation protocol based on PEG-mediated direct gene transfer to protoplasts. Our data demonstrate that this procedure leads to the establishment of an efficient transient gene expression assay. A slightly modified protocol has been developed allowing the in vivo introduction of antibodies in moss protoplasts. Both DNA and IgGs can be loaded simultaneously, and specific antibodies can immunodeplete the product of an expression cassette (GUS) as well as proteins involved in cellular processes (tubulins). This assay, named transient in vivo immunodepletion assay, should be applicable to other plant protoplasts, and offers new approaches to study cellular processes. Transformations have been performed with bacterial plasmids carrying antibiotic resistance expression cassette. Our data demonstrate that integrative transformation occurs, but at low frequencies. This is the first demonstration of a successful genetic transformation of mosses. Resistant unstable colonies are recovered at high frequencies following transformation, and two different classes of unstable clones have been identified. Phenotypical, genetic and molecular characterisation of these clones strongly suggests that bacterial plasmids are concatenated to form high molecular arrays which are efficiently replicated and maintained as extrachromosomal elements in the resistant cells. Replicative transformation in P. patens should allow the design of experiments aimed at the identification of genomic sequences involved in moss DNA replication. Transgenic strains have been retransformed with bacterial plasmids carrying sequences homologous to the integrated transloci, but conferring resistance to another antibiotic. Our results demonstrate an order of magnitude increase of integrative transformation frequencies in transgenic strains as compared to wild-type, associated with cosegregation of the resistance genes in most of these double resistant transgenic strains. These observations provide strong genetic evidence that gene targeting occurs about ten times more often than random integration in the genome of P. patens. Such ratio of targeted to random integration is about 10 000 times higher than previous reports of gene targeting in plants, and provides the essential requirement for the development of efficient reverse genetics in the haplodiplobiontic P. patens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La triangulation des données sur la vie nocturne fait partie du projet de Safer Nightlife Suisse (SNS) en accord avec l'Office fédéral de la santé publique. Cette année, c'est la première fois qu'un état des lieux est disponible pour un projet de triangulation des données. L'idée d'une triangulation des données complémentaire sur la base des chiffres pertinents de la prévalence de la consommation de substances dans la vie nocturne en Suisse, dont les sources divergent beaucoup, vise à estimer la réalité de la consommation. Dans ce premier rapport de triangulation, il s'agit d'une intégration des différentes données nationales disponibles sur la consommation de substances ainsi que de leur pondération selon leur pertinence. On trouvera la description du processus, la présentation des données disponibles ainsi qu'une première synthèse des évaluations de la tendance de la consommation de substances en Suisse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ GRAND PUBLIC La complexité des sociétés d'insectes (telles que les abeilles, les termites ou les fourmis) a depuis longtemps fasciné l'Homme. Depuis le débfit du XIXème siècle, de nombreux travaux observationnels, comportementaux et théoriques leur on été consacrés afin de mieux les décrire et comprendre. L'avènement de la biologie moléculaire à la fin du XXèrne siècle a offert de nouveaux outils scientifiques pour identifier et étudier les gènes et molécules impliqués dans le développement et le comportement des êtres vivants. Alors que la majorité de ces études s'est focalisée sur des organismes de laboratoire tel que la mouche ou les nématodes, l'utilisation de ces outils est restée marginale jusqu'à présent dans l'étude des sociétés d'insectes. Lors de ma thèse, j'ai développé des outils moléculaires permettant de déterminer le niveau d'activité de zo,ooo gènes chez la fourmi de feu, Solenopsis invicta, ainsi qu'une base de données et un portail en ligne regroupant les informations relatives à l'étude génétique des fourmis: Fourmidable. J'ai ensuite utilisé ces outils dans le cadre d'une étude comportementale chez la fourmis S. invicta. Dans les sociétés d'insectes, une hiérarchie peut déterminer le statut reproducteur des individus. Suite à la mort d'un dominant, les subordonnés entrent en compétition en vue d'améliorer leur statut. Un tel phénomène se produit au sein des colonies de S. invicta contenant une unique reine mère, des milliers d'ouvrières et des centaines de reines vierges ailées. A la mort de la reine mère, un grand nombre de reines vierges tentent de la remplacer en arrachant leurs ailes et en activant leurs organes reproducteurs plutôt que de partir en vol nuptial. Ces tentatives sont le plus souvent arrêtées par les ouvrières qui exécutent la plupart de ces reines sur la base de signaux olfactifs produits lors de l'activation des organes reproducteurs. Afin de mieux comprendre les mécanismes moléculaires impliqués, j'ai étudié l'activité de gènes au sein des reines au début de ce processus. J'ai ainsi déterminé que des gènes impliqués dans communication olfactive, le développement des organes reproducteurs et la métabolisation de l'hormone juvénile sont activês à ce moment là. La vitesse à laquelle les reines perdent leurs ailes ainsi que les niveaux d'expression de gènes sont ensuite liés à leur probabilité de survie. ABSTRACT : Honeybees, termites and ants occupy the "pinnacle of social evolution" with societies of a complexity that rivals our own. Humans have long been fascinated by social insects, but studying them has been mostly limited to observational and behavioral experiments. The advent of molecular biology first made it possible to investigate the molecular-genetic basis of development in model systems such as the fruit fly Drosophila melarcogaster or the roundworm Caenorhabditis elegans and subsequently their behavior. Molecular and genomic tools are now becoming available for the study of social insects as well. To permit genomic research on the fire ant, Solenopsis invicta, we developed a cDNA microarray that can simultaneously determine the expression levels of approximately 1oooo genes. These genes were assembled and bioinformatically annotated using custom pipelines. The obtained data formed the cornerstones for Fourmidable, a web portal centralizing sequence, gene annotation and gene expression data as well as laboratory protocols for research on ants. In many animals living in groups the reproductive status of individuals is determined by their social status. In species with social hierarchies, the death of dominant individuals typically upheaves the social hierarchy and provides an opportunity for subordinate individuals to improve their social status. Such a phenomenon occurs in the monogyne form of S. invicta, where colonies typically contain a single wingless reproductive queen, thousands of workers and hundreds of winged non-reproductive virgin queens. Upon the death of the mother queen, many virgin queens shed their wings and initiate reproductive development instead of departing on a mating flight. Workers progressively execute almost all of them over the following weeks. The workers base their collective decision on pheromonal cues associated with the onset of reproductive development of the virgin queens which occurs after orphaning. We used the aforementioned tools to determine that genes putatively involved in processes including olfactory signaling, reproductive development and Juvenile Hormone metabolism are differentially expressed at the onset of competition. Additionally, we found that queens that initiate reproductive development faster and, to a certain extent, shed their wings faster after orphaning are more likely to become replacement queens. These results provide candidate genes that are putatively linked to competition outcome. To determine the extent to which specific genes affect different aspects of life in ant colonies, functional tests such as gene activation and silencing will still be required. We conclude by discussing some of the challenges and opportunities for molecular-genetic research on ants. RÉSUMÉ Les sociétés d'abeilles, de termites et de fourmis sont d'une complexité proche de celle de la nôtre et ont depuis longtemps fasciné l'Homme. Cependant, leur étude était jusqu'à présent limitée aux observations et expériences comportementales. L'avènement de la biologie moléculaire a d'abord rendu possible l'étude moléculaire et génétique du développement d'organismes modèles tels que la mouche Drosophila melanogaster ou le nématode Caenorhabditis elegans, puis dans un second temps de leur comportement. De telles études deviennent désormais possibles pour les insectes sociaux. Nous avons développé une puce à ADN permettant de déterminer simultanément les niveaux d'expression de 1oooo gènes de la fourmi de feu, Solenopsís invicta. Ces gènes ont été séquencés puis assemblés et annotés à l'aide de pipelines que nous avons développés. En se basant sur les informations obtenues, nous avons créé un portail web, Fourmidable. Ce portail vise à centraliser toutes les informations de séquence, d'annotation et d'expression de gènes, ainsi que les protocoles de laboratoire utilisés pour la recherche sur les fourmis. Par la suite, nous avons utilisé les outils développés pour étudier un aspect particulier de S. invicta. Chez les animaux grégaires, une hiérarchie sociale peut déterminer le statut reproducteur des individus. Suite à la mort d'un individu dominant, les individus subordonnés peuvent entrer en compétition en vue d'améliorer leur statut. Un tel phénomène se produit au sein des colonies monogynes de S. invicta, qui contiennent habituellement une unique reine mère, des milliers d'ouvrières et des centaines de reines vierges ailées. Suite à la mort de la reine mère, dominante, un grand nombre de reines vierges, subordonnées, perdent leurs ailes et activent leurs organes reproducteurs au lieu de partir en vol nuptial. Au cours des semaines suivantes, les ouvrières exécutent la plupart de ces reines sur la base de signaux olfactifs produits lors de l'activation des organes reproducteurs. Afin de mieux comprendre les mécanismes moléculaires impliqués, nous avons étudié l'expression de gènes au début de cette compétition. Nous avons identifié 297 gènes différemment exprimés, dont l'annotation indique qu'ils seraient impliqués dans des processus biologiques dont la communication olfactive, le développement des organes reproducteurs et la métabolisation de l'hormone juvénile. Par la suite, nous avons déterminé que la vitesse à laquelle les reines perdent leurs ailes en début de compétition ainsi que les niveaux d'expression de gènes sont corrélés à la probabilité de survie des reines. Nous concluons en discutant des opportunités offertes par la recherche génétique sur les fourmis ainsi que les défis qu'elle devra surmonter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Molecular shape has long been known to be an important property for the process of molecular recognition. Previous studies postulated the existence of a drug-like shape space that could be used to artificially bias the composition of screening libraries, with the aim to increase the chance of success in Hit Identification. In this work, it was analysed to which extend this assumption holds true. Normalized Principal Moments of Inertia Ratios (NPRs) have been used to describe the molecular shape of small molecules. It was investigated, whether active molecules of diverse targets are located in preferred subspaces of the NPR shape space. Results illustrated a significantly stronger clustering than could be expected by chance, with parts of the space unlikely to be occupied by active compounds. Furthermore, a strong enrichment of elongated, rather flat shapes could be observed, while globular compounds were highly underrepresented. This was confirmed for a wide range of small molecule datasets from different origins. Active compounds exhibited a high overlap in their shape distributions across different targets, making a purely shape­ based discrimination very difficult. An additional perspective was provided by comparing the shapes of protein binding pockets with those of their respective ligands. Although more globular than their ligands, it was observed that binding sites shapes exhibited a similarly skewed distribution in shape space: spherical shapes were highly underrepresented. This was different for unoccupied binding pockets of smaller size. These were on the contrary identified to possess a more globular shape. The relation between shape complementarity and exhibited bioactivity was analysed; a moderate correlation between bioactivity and parameters including pocket coverage, distance in shape space, and others could be identified, which reflects the importance of shape complementarity. However, this also suggests that other aspects are of relevance for molecular recognition. A subsequent analysis assessed if and how shape and volume information retrieved from pocket or respective reference ligands could be used as a pre-filter in a virtual screening approach. ln Lead Optimization compounds need to get optimized with respect to a variety of pararneters. Here, the availability of past success stories is very valuable, as they can guide medicinal chemists during their analogue synthesis plans. However, although of tremendous interest for the public domain, so far only large corporations had the ability to mine historical knowledge in their proprietary databases. With the aim to provide such information, the SwissBioisostere database was developed and released during this thesis. This database contains information on 21,293,355 performed substructural exchanges, corresponding to 5,586,462 unique replacements that have been measured in 35,039 assays against 1,948 molecular targets representing 30 target classes, and on their impact on bioactivity . A user-friendly interface was developed that provides facile access to these data and is accessible at http//www.swissbioisostere.ch. The ChEMBL database was used as primary data source of bioactivity information. Matched molecular pairs have been identified in the extracted and cleaned data. Success-based scores were developed and integrated into the database to allow re-ranking of proposed replacements by their past outcomes. It was analysed to which degree these scores correlate with chemical similarity of the underlying fragments. An unexpectedly weak relationship was detected and further investigated. Use cases of this database were envisioned, and functionalities implemented accordingly: replacement outcomes are aggregatable at the assay level, and it was shawn that an aggregation at the target or target class level could also be performed, but should be accompanied by a careful case-by-case assessment. It was furthermore observed that replacement success depends on the activity of the starting compound A within a matched molecular pair A-B. With increasing potency the probability to lose bioactivity through any substructural exchange was significantly higher than in low affine binders. A potential existence of a publication bias could be refuted. Furthermore, often performed medicinal chemistry strategies for structure-activity-relationship exploration were analysed using the acquired data. Finally, data originating from pharmaceutical companies were compared with those reported in the literature. It could be seen that industrial medicinal chemistry can access replacement information not available in the public domain. In contrast, a large amount of often-performed replacements within companies could also be identified in literature data. Preferences for particular replacements differed between these two sources. The value of combining different endpoints in an evaluation of molecular replacements was investigated. The performed studies highlighted furthermore that there seem to exist no universal substructural replacement that always retains bioactivity irrespective of the biological environment. A generalization of bioisosteric replacements seems therefore not possible. - La forme tridimensionnelle des molécules a depuis longtemps été reconnue comme une propriété importante pour le processus de reconnaissance moléculaire. Des études antérieures ont postulé que les médicaments occupent préférentiellement un sous-ensemble de l'espace des formes des molécules. Ce sous-ensemble pourrait être utilisé pour biaiser la composition de chimiothèques à cribler, dans le but d'augmenter les chances d'identifier des Hits. L'analyse et la validation de cette assertion fait l'objet de cette première partie. Les Ratios de Moments Principaux d'Inertie Normalisés (RPN) ont été utilisés pour décrire la forme tridimensionnelle de petites molécules de type médicament. Il a été étudié si les molécules actives sur des cibles différentes se co-localisaient dans des sous-espaces privilégiés de l'espace des formes. Les résultats montrent des regroupements de molécules incompatibles avec une répartition aléatoire, avec certaines parties de l'espace peu susceptibles d'être occupées par des composés actifs. Par ailleurs, un fort enrichissement en formes allongées et plutôt plates a pu être observé, tandis que les composés globulaires étaient fortement sous-représentés. Cela a été confirmé pour un large ensemble de compilations de molécules d'origines différentes. Les distributions de forme des molécules actives sur des cibles différentes se recoupent largement, rendant une discrimination fondée uniquement sur la forme très difficile. Une perspective supplémentaire a été ajoutée par la comparaison des formes des ligands avec celles de leurs sites de liaison (poches) dans leurs protéines respectives. Bien que plus globulaires que leurs ligands, il a été observé que les formes des poches présentent une distribution dans l'espace des formes avec le même type d'asymétrie que celle observée pour les ligands: les formes sphériques sont fortement sous­ représentées. Un résultat différent a été obtenu pour les poches de plus petite taille et cristallisées sans ligand: elles possédaient une forme plus globulaire. La relation entre complémentarité de forme et bioactivité a été également analysée; une corrélation modérée entre bioactivité et des paramètres tels que remplissage de poche, distance dans l'espace des formes, ainsi que d'autres, a pu être identifiée. Ceci reflète l'importance de la complémentarité des formes, mais aussi l'implication d'autres facteurs. Une analyse ultérieure a évalué si et comment la forme et le volume d'une poche ou de ses ligands de référence pouvaient être utilisés comme un pré-filtre dans une approche de criblage virtuel. Durant l'optimisation d'un Lead, de nombreux paramètres doivent être optimisés simultanément. Dans ce contexte, la disponibilité d'exemples d'optimisations réussies est précieuse, car ils peuvent orienter les chimistes médicinaux dans leurs plans de synthèse par analogie. Cependant, bien que d'un extrême intérêt pour les chercheurs dans le domaine public, seules les grandes sociétés pharmaceutiques avaient jusqu'à présent la capacité d'exploiter de telles connaissances au sein de leurs bases de données internes. Dans le but de remédier à cette limitation, la base de données SwissBioisostere a été élaborée et publiée dans le domaine public au cours de cette thèse. Cette base de données contient des informations sur 21 293 355 échanges sous-structuraux observés, correspondant à 5 586 462 remplacements uniques mesurés dans 35 039 tests contre 1948 cibles représentant 30 familles, ainsi que sur leur impact sur la bioactivité. Une interface a été développée pour permettre un accès facile à ces données, accessible à http:/ /www.swissbioisostere.ch. La base de données ChEMBL a été utilisée comme source de données de bioactivité. Une version modifiée de l'algorithme de Hussain et Rea a été implémentée pour identifier les Matched Molecular Pairs (MMP) dans les données préparées au préalable. Des scores de succès ont été développés et intégrés dans la base de données pour permettre un reclassement des remplacements proposés selon leurs résultats précédemment observés. La corrélation entre ces scores et la similarité chimique des fragments correspondants a été étudiée. Une corrélation plus faible qu'attendue a été détectée et analysée. Différents cas d'utilisation de cette base de données ont été envisagés, et les fonctionnalités correspondantes implémentées: l'agrégation des résultats de remplacement est effectuée au niveau de chaque test, et il a été montré qu'elle pourrait également être effectuée au niveau de la cible ou de la classe de cible, sous réserve d'une analyse au cas par cas. Il a en outre été constaté que le succès d'un remplacement dépend de l'activité du composé A au sein d'une paire A-B. Il a été montré que la probabilité de perdre la bioactivité à la suite d'un remplacement moléculaire quelconque est plus importante au sein des molécules les plus actives que chez les molécules de plus faible activité. L'existence potentielle d'un biais lié au processus de publication par articles a pu être réfutée. En outre, les stratégies fréquentes de chimie médicinale pour l'exploration des relations structure-activité ont été analysées à l'aide des données acquises. Enfin, les données provenant des compagnies pharmaceutiques ont été comparées à celles reportées dans la littérature. Il a pu être constaté que les chimistes médicinaux dans l'industrie peuvent accéder à des remplacements qui ne sont pas disponibles dans le domaine public. Par contre, un grand nombre de remplacements fréquemment observés dans les données de l'industrie ont également pu être identifiés dans les données de la littérature. Les préférences pour certains remplacements particuliers diffèrent entre ces deux sources. L'intérêt d'évaluer les remplacements moléculaires simultanément selon plusieurs paramètres (bioactivité et stabilité métabolique par ex.) a aussi été étudié. Les études réalisées ont souligné qu'il semble n'exister aucun remplacement sous-structural universel qui conserve toujours la bioactivité quel que soit le contexte biologique. Une généralisation des remplacements bioisostériques ne semble donc pas possible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La variabilité interindividuelle au sein de la population générale se manifeste à plusieurs niveaux aussi bien externe pour des différences physiologiques qu'interne pour des différences toxicocinétiques et toxicodynamiques . Face à une agression chimique par exemple, nous ne réagissons en effet pas tous de manière identique. Entre le moment de l'exposition à un composé toxique et la maladie, une suite d'évènements biologiques peut survenir. La façon dont cette suite d'évènements se développera chez une personne dépend de sa susceptibilité individuelle aux risques chimiques. Celle-ci peut être déterminée par des facteurs génétiques, physiopathologiques (âge, sexe, grossesse, hormones, maladies, alimentation, etc.) et environnementaux. [Auteur]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Table des matières] Caractéristiques des naissances, 1979-1985. Evolution séculaire des mortalités néonatale, post-néonatale et infantile par sexe, 1901-1987 (données quinquennales). Evolution de la mortinatalité par sexe, 1969-1987. Taux de mortalité, canton de Valais, 1979-1985(87).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACTIn normal tissues, a balance between pro- and anti-angiogenic factors tightly controls angiogenesis. Alterations of this balance may have pathological consequences. For instance, concerning the retina, the vascular endothelial growth factor (VEGF) is a potent pro-angiogenic factor, and has been identified has a key player during ocular neovascularization implicated in a variety of retinal diseases. In the exudative form (wet-form) of age-related macular degeneration (AMD), neovascularizations occurring from the choroidal vessels are responsible for a quick and dramatic loss of visual acuity. In diabetic retinopathy and retinopathy of prematurity, sprouting from the retinal vessels leads to vision loss. Furthermore, the aging of the population, the increased- prevalence of diabetes and the better survival rate of premature infants will lead to an increasing rate of these conditions. In this way, anti-VEGF strategy represents an important therapeutic target to treat ocular neovascular disorders.In addition, the administration of Pigmented Epithelial growth factor, a neurotrophic and an anti- angiogenic factor, prevents photoreceptor cell death in a model of retinal degeneration induced by light. Previous results analyzing end point morphology reveal that the light damage (LD) model is used to mimic retinal degenerations arising from environmental insult, as well as aging and genetic disease such as advanced atrophic AMD. Moreover, light has been identified as a co-factor in a number of retinal diseases, speeding up the degeneration process. This protecting effect of PEDF in the LD retina raises the possibility of involvement of the balance between pro- and anti-angiogenic factors not only for angiogenesis, but also in cell survival and maintenance.The aim of the work presented here was to evaluate the importance of this balance in neurodegenerative processes. To this aim, a model of light-induced retinal degeneration was used and characterized, mainly focusing on factors simultaneously controlling neuron survival and angiogenesis, such as PEDF and VEGF.In most species, prolonged intense light exposure can lead to photoreceptor cell damage that can progress to cell death and vision loss. A protocol previously described to induce retinal degeneration in Balb/c mice was used. Retinas were characterized at different time points after light injury through several methods at the functional and molecular levels. Data obtained confirmed that toxic level of light induce PR cell death. Variations were observed in VEGF pathway players in both the neural retina and the eye-cup containing the retinal pigment epithelium (RPE), suggesting a flux of VEGF from the RPE towards the neuroretina. Concomitantly, the integrity of the outer blood-retinal-barrier (BRB) was altered, leading to extravascular albumin leakage from the choroid throughout the photoreceptor layer.To evaluate the importance of VEGF during light-induced retinal degeneration process, a lentiviral vector encoding the cDNA of a single chain antibody directed against all VEGF-A isoforms was developed (LV-V65). The bioactivity of this vector to block VEGF was validated in a mouse model of laser-induced choroidal neovascularization mediated by VEGF upregulation. The vector was then used in the LD model. The administration of the LV-V65 contributed to the maintenance of functional photoreceptors, which was assessed by ERG recording, visual acuity measurement and histological analyses. At the RPE level, the BRB integrity was preserved as shown by the absence of albumin leakage and the maintenance of RPE cell cohesion.These results taken together indicate that the VEGF is a mediator of light induced PR degeneration process and confirm the crucial role of the balance between pro- and anti-angiogenic factors in the PR cell survival. This work also highlights the prime importance of BRB integrity and functional coupling between RPE and PR cells to maintain the PR survival. VEGF dysregulation was already shown to be involved in wet AMD forms and our study suggests that VEGF dysregulation may also occur at early stages of AMD and could thus be a potential therapeutic target for several RPE related diseases.RESUMEDans les différents tissues de l'organisme, l'angiogenèse est strictement contrôlée par une balance entre les facteurs pro- et anti-angiogéniques. Des modifications survenant dans cette balance peuvent engendrer des conséquences pathologiques. Par exemple, concernant la rétine, le facteur de croissance de l'endothélium vasculaire (VEGF) est un facteur pro-angiogénique important. Ce facteur a été identifié comme un acteur majeur dans les néovascularisations oculaires et les processus pathologiques angiogéniques survenant dans l'oeil et responsables d'une grande variété de maladies rétiniennes. Dans la forme humide de la dégénérescence maculaire liée à l'âge (DMLA), la néovascularisation choroïdienne est responsable de la perte rapide et brutale de l'acuité visuelle chez les patients affectés. Dans la rétinopathie diabétique et celle lié à la prématurité, l'émergence de néovaisseaux rétiniens est la cause de la perte de la vision. Les néovascularisations oculaires représentent la principale cause de cécité dans les pays développés. De plus, l'âge croissant de la population, la progression de la prévalence du diabète et la meilleure survie des enfants prématurés mèneront sans doute à l'augmentation de ces pathologies dans les années futures. Dans ces conditions, les thérapies anti- angiogéniques visant à inhiber le VEGF représentent une importante cible thérapeutique pour le traitement de ces pathologies.Plusieurs facteurs anti-angiogéniques ont été identifiés. Parmi eux, le facteur de l'épithélium pigmentaire (PEDF) est à la fois un facteur neuro-trophique et anti-angiogénique, et l'administration de ce facteur au niveau de la rétine dans un modèle de dégénérescence rétinienne induite par la lumière protège les photorécepteurs de la mort cellulaire. Des études antérieures basées sur l'analyse morphologique ont révélé que les modifications survenant lors de la dégénération induite suite à l'exposition à des doses toxiques de lumière représente un remarquable modèle pour l'étude des dégénérations rétiniennes suite à des lésions environnementales, à l'âge ou encore aux maladies génétiques telle que la forme atrophique avancée de la DMLA. De plus, la lumière a été identifiée comme un co-facteur impliqué dans un grand nombre de maladies rétiniennes, accélérant le processus de dégénération. L'effet protecteur du PEDF dans les rétines lésées suite à l'exposition de des doses toxiques de lumière suscite la possibilité que la balance entre les facteurs pro- et anti-angiogéniques soit impliquée non seulement dans les processus angiogéniques, mais également dans le maintient et la survie des cellules.Le but de ce projet consiste donc à évaluer l'implication de cette balance lors des processus neurodégénératifs. Pour cela, un modèle de dégénération induite par la lumière à été utilisé et caractérisé, avec un intérêt particulier pour les facteurs comme le PEDF et le VEGF contrôlant simultanément la survie des neurones et l'angiogenèse.Dans la plupart des espèces, l'exposition prolongée à une lumière intense peut provoquer des dommages au niveau des cellules photoréceptrices de l'oeil, qui peut mener à leur mort, et par conséquent à la perte de la vision. Un protocole préalablement décrit a été utilisé pour induire la dégénération rétinienne dans les souris albinos Balb/c. Les rétines ont été analysées à différents moments après la lésion par différentes techniques, aussi bien au niveau moléculaire que fonctionnel. Les résultats obtenus ont confirmé que des doses toxiques de lumière induisent la mort des photorécepteurs, mais altèrent également la voie de signalisation du VEGF, aussi bien dans la neuro-rétine que dans le reste de l'oeil, contenant l'épithélium pigmentaire (EP), et suggérant un flux de VEGF provenant de ΙΈΡ en direction de la neuro-rétine. Simultanément, il se produit une altération de l'intégrité de la barrière hémato-rétinienne externe, menant à la fuite de protéine telle que l'albumine, provenant de la choroïde et retrouvée dans les compartiments extravasculaires de la rétine, telle que dans la couche des photorécepteurs.Pour déterminer l'importance et le rôle du VEGF, un vecteur lentiviral codant pour un anticorps neutralisant dirigée contre tous les isoformes du VEGF a été développé (LV-V65). La bio-activité de ce vecteur a été testé et validée dans un modèle de laser, connu pour induire des néovascularisations choroïdiennes chez la souris suite à l'augmentation du VEGF. Ce vecteur a ensuite été utilisé dans le modèle de dégénération induite par la lumière. Les résultats des électrorétinogrammes, les mesures de l'acuité visuelle et les analyses histologiques ont montré que l'injection du LV-V65 contribue à la maintenance de photorécepteurs fonctionnels. Au niveau de l'EP, l'absence d'albumine et la maintenance des jonctions cellulaires des cellules de l'EP ont démontré que l'intégrité de la barrière hémato-rétinienne externe est préservée suite au traitement.Par conséquent, tous les résultats obtenus indiquent que le VEGF est un médiateur important impliquée dans le processus de dégénération induit par la lumière et confirme le rôle cruciale de la balance entre les facteurs pro- et anti-angiogéniques dans la survie des photorécepteurs. Cette étude révèle également l'importance de l'intégrité de la barrière hémato-rétinienne et l'importance du lien fonctionnel et structurel entre l'EP et les photorécepteurs, essentiel pour la survie de ces derniers. Par ailleurs, Cette étude suggère que des dérèglements au niveau de l'équilibre du VEGF ne sont pas seulement impliqués dans la forme humide de la DMLA, comme déjà démontré dans des études antérieures, mais pourraient également contribuer et survenir dans des formes précoces de la DMLA, et par conséquent le VEGF représente une cible thérapeutique potentielle pour les maladies associées à des anomalies au niveau de l'EP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The opportunistic ubiquitous pathogen Pseudomonas aeruginosa strain PAOl is a versatile Gram-negative bacterium that has the extraordinary capacity to colonize a wide diversity of ecological niches and to cause severe and persistent infections in humans. To ensure an optimal coordination of the genes involved in nutrient utilization, this bacterium uses the NtrB/C and/or the CbrA/B two-component systems, to sense nutrients availability and to regulate in consequence the expression of genes involved in their uptake and catabolism. NtrB/C is specialized in nitrogen utilization, while the CbrA/B system is involved in both carbon and nitrogen utilization and both systems activate their target genes expression in concert with the alternative sigma factor RpoN. Moreover, the NtrB/C and CbrA/B two- component systems regulate the secondary metabolism of the bacterium, such as the production of virulence factors. In addition to the fine-tuning transcriptional regulation, P. aeruginosa can rapidly modulate its metabolism using small non-coding regulatory RNAs (sRNAs), which regulate gene expression at the post-transcriptional level by diverse and sophisticated mechanisms and contribute to the fast physiological adaptability of this bacterium. In our search for novel RpoN-dependent sRNAs modulating the nutritional adaptation of P. aeruginosa PAOl, we discovered NrsZ (Nitrogen regulated sRNA), a novel RpoN-dependent sRNA that is induced under nitrogen starvation by the NtrB/C two-component system. NrsZ has a unique architecture, formed of three similar stem-loop structures (SL I, II and II) separated by variant spacer sequences. Moreover, this sRNA is processed in short individual stem-loop molecules, by internal cleavage involving the endoribonuclease RNAse E. Concerning NrsZ functions in P. aeruginosa PAOl, this sRNA was shown to trigger the swarming motility and the rhamnolipid biosurfactants production. This regulation is due to the NrsZ-mediated activation of rhlA expression, a gene encoding for an enzyme essential for swarming motility and rhamnolipids production. Interestingly, the SL I structure of NrsZ ensures its regulatory function on rhlA expression, suggesting that the similar SLs are the functional units of this modular sRNA. However, the regulatory mechanism of action of NrsZ on rhlA expression activation remains unclear and is currently being investigated. Additionally, the NrsZ regulatory network was investigated by a transcriptome analysis, suggesting that numerous genes involved in both primary and secondary metabolism are regulated by this sRNA. To emphasize the importance of NrsZ, we investigated its conservation in other Pseudomonas species and demonstrated that NrsZ is conserved and expressed under nitrogen limitation in Pseudomonas protegens Pf-5, Pseudomonas putida KT2442, Pseudomonas entomophila L48 and Pseudomonas syringae pv. tomato DC3000, strains having different ecological features, suggesting an important role of NrsZ in the adaptation of Pseudomonads to nitrogen starvation. Interestingly the architecture of the different NrsZ homologs is similarly composed by SL structures and variant spacer sequences. However, the number of SL repetitions is not identical, and one to six SLs were predicted on the different NrsZ homologs. Moreover, NrsZ is processed in short molecules in all the strains, similarly to what was previously observed in P. aeruginosa PAOl, and the heterologous expression of the NrsZ homologs restored rhlA expression, swarming motility and rhamnolipids production in the P. aeruginosa NrsZ mutant. In many aspects, NrsZ is an atypical sRNA in the bacterial panorama. To our knowledge, NrsZ is the first described sRNA induced by the NtrB/C. Moreover, its unique modular architecture and its processing in similar short SL molecules suggest that NrsZ belongs to a novel family of bacterial sRNAs. -- L'agent pathogène opportuniste et ubiquitaire Pseudomonas aeruginosa souche PAOl est une bactérie Gram négative versatile ayant l'extraordinaire capacité de coloniser différentes niches écologiques et de causer des infections sévères et persistantes chez l'être humain. Afin d'assurer une coordination optimale des gènes impliqués dans l'utilisation de différents nutriments, cette bactérie se sert de systèmes à deux composants tel que NtrB/C et CbrA/B afin de détecter la disponibilité des ressources nutritives, puis de réguler en conséquence l'expression des gènes impliqués dans leur importation et leur catabolisme. Le système NtrB/C régule l'utilisation des sources d'azote alors que le système CbrA/B est impliqué à la fois dans l'utilisation des sources de carbone et d'azote. Ces deux systèmes activent l'expression de leurs gènes-cibles de concert avec le facteur sigma alternatif RpoN. En outre, NtrB/C et CbrA/B régulent aussi le métabolisme secondaire, contrôlant notamment la production d'importants facteurs de virulence. En plus de toutes ces régulations génétiques fines ayant lieu au niveau transcriptionnel, P. aeruginosa est aussi capable de moduler son métabolisme en se servant de petits ARNs régulateurs non-codants (ARNncs), qui régulent l'expression génétique à un niveau post- transcriptionnel par divers mécanismes sophistiqués et contribuent à rendre particulièrement rapide l'adaptation physiologique de cette bactérie. Au cours de nos recherches sur de nouveaux ARNncs dépendant du facteur sigma RpoN et impliqués dans l'adaptation nutritionnelle de P. aeruginosa PAOl, nous avons découvert NrsZ (Nitrogen regulated sRNA), un ARNnc induit par la cascade NtrB/C-RpoN en condition de carence en azote. NrsZ a une architecture unique, composée de trois structures en tige- boucle (TB I, II et III) hautement similaires et séparées par des « espaceurs » ayant des séquences variables. De plus, cet ARNnc est clivé en petits fragments correspondant au trois molécules en tige-boucle, par un processus de clivage interne impliquant l'endoribonucléase RNase E. Concernant les fonctions de NrsZ chez P. aeruginosa PAOl, cet ARNnc est capable d'induire la motilité de type « swarming » et la production de biosurfactants, nommés rhamnolipides. Cette régulation est due à l'activation par NrsZ de l'expression de rhlA, un gène essentiel pour la motilité de type swarming et pour la production de rhamnolipides. Étonnamment, la structure TB I est capable d'assurer à elle seule la fonction régulatrice de NrsZ sur l'expression de rhlA, suggérant que ces molécules TBs sont les unités fonctionnelles de cet ARNnc modulaire. Cependant, le mécanisme moléculaire par lequel NrsZ active l'expression de rhlA demeure à ce jour incertain et est actuellement à l'étude. En plus, le réseau de régulations médiées par NrsZ a été étudié par une analyse de transcriptome qui a indiqué que de nombreux gènes impliqués dans le métabolisme primaire ou secondaire seraient régulés par NrsZ. Pour accentuer l'importance de NrsZ, nous avons étudié sa conservation dans d'autres espèces de Pseudomonas. Ainsi, nous avons démontré que NrsZ est conservé et exprimé en situation de carence d'azote par les souches Pseudomonas protegens Pf-5, Pseudomonas putida KT2442, Pseudomonas entomophila L48, Pseudomonas syringae pv. tomato DC3000, quatre espèces ayant des caractéristiques écologiques très différentes, suggérant que NrsZ joue un rôle important dans l'adaptation du genre Pseudomonas envers la carence en azote. Chez toutes les souches étudiées, les différents homologues de NrsZ présentent une architecture similaire faite de TBs conservées et d'espaceurs. Cependant, le nombre de TBs n'est pas identique et peut varier de une à six copies selon la souche. Les différentes versions de NrsZ sont clivées en petites molécules dans ces quatre souches, comme il a été observé chez P. aeruginosa PAOl. De plus, l'expression hétérologue des différentes variantes de NrsZ est capable de restaurer l'expression de rhlA, la motilité swarming et la production de rhamnolipides dans une souche de P. aeruginosa dont nrsZ a été inactivé. Par bien des aspects, NrsZ est un ARNnc atypique dans le monde bactérien. À notre connaissance, NrsZ est le premier ARNnc décrit comme étant régulé par le système NtrB/C. De plus, son unique architecture modulaire et son clivage en petites molécules similaires suggèrent que NrsZ appartient à une nouvelle famille d'ARNncs bactériens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The proportion of population living in or around cites is more important than ever. Urban sprawl and car dependence have taken over the pedestrian-friendly compact city. Environmental problems like air pollution, land waste or noise, and health problems are the result of this still continuing process. The urban planners have to find solutions to these complex problems, and at the same time insure the economic performance of the city and its surroundings. At the same time, an increasing quantity of socio-economic and environmental data is acquired. In order to get a better understanding of the processes and phenomena taking place in the complex urban environment, these data should be analysed. Numerous methods for modelling and simulating such a system exist and are still under development and can be exploited by the urban geographers for improving our understanding of the urban metabolism. Modern and innovative visualisation techniques help in communicating the results of such models and simulations. This thesis covers several methods for analysis, modelling, simulation and visualisation of problems related to urban geography. The analysis of high dimensional socio-economic data using artificial neural network techniques, especially self-organising maps, is showed using two examples at different scales. The problem of spatiotemporal modelling and data representation is treated and some possible solutions are shown. The simulation of urban dynamics and more specifically the traffic due to commuting to work is illustrated using multi-agent micro-simulation techniques. A section on visualisation methods presents cartograms for transforming the geographic space into a feature space, and the distance circle map, a centre-based map representation particularly useful for urban agglomerations. Some issues on the importance of scale in urban analysis and clustering of urban phenomena are exposed. A new approach on how to define urban areas at different scales is developed, and the link with percolation theory established. Fractal statistics, especially the lacunarity measure, and scale laws are used for characterising urban clusters. In a last section, the population evolution is modelled using a model close to the well-established gravity model. The work covers quite a wide range of methods useful in urban geography. Methods should still be developed further and at the same time find their way into the daily work and decision process of urban planners. La part de personnes vivant dans une région urbaine est plus élevé que jamais et continue à croître. L'étalement urbain et la dépendance automobile ont supplanté la ville compacte adaptée aux piétons. La pollution de l'air, le gaspillage du sol, le bruit, et des problèmes de santé pour les habitants en sont la conséquence. Les urbanistes doivent trouver, ensemble avec toute la société, des solutions à ces problèmes complexes. En même temps, il faut assurer la performance économique de la ville et de sa région. Actuellement, une quantité grandissante de données socio-économiques et environnementales est récoltée. Pour mieux comprendre les processus et phénomènes du système complexe "ville", ces données doivent être traitées et analysées. Des nombreuses méthodes pour modéliser et simuler un tel système existent et sont continuellement en développement. Elles peuvent être exploitées par le géographe urbain pour améliorer sa connaissance du métabolisme urbain. Des techniques modernes et innovatrices de visualisation aident dans la communication des résultats de tels modèles et simulations. Cette thèse décrit plusieurs méthodes permettant d'analyser, de modéliser, de simuler et de visualiser des phénomènes urbains. L'analyse de données socio-économiques à très haute dimension à l'aide de réseaux de neurones artificiels, notamment des cartes auto-organisatrices, est montré à travers deux exemples aux échelles différentes. Le problème de modélisation spatio-temporelle et de représentation des données est discuté et quelques ébauches de solutions esquissées. La simulation de la dynamique urbaine, et plus spécifiquement du trafic automobile engendré par les pendulaires est illustrée à l'aide d'une simulation multi-agents. Une section sur les méthodes de visualisation montre des cartes en anamorphoses permettant de transformer l'espace géographique en espace fonctionnel. Un autre type de carte, les cartes circulaires, est présenté. Ce type de carte est particulièrement utile pour les agglomérations urbaines. Quelques questions liées à l'importance de l'échelle dans l'analyse urbaine sont également discutées. Une nouvelle approche pour définir des clusters urbains à des échelles différentes est développée, et le lien avec la théorie de la percolation est établi. Des statistiques fractales, notamment la lacunarité, sont utilisées pour caractériser ces clusters urbains. L'évolution de la population est modélisée à l'aide d'un modèle proche du modèle gravitaire bien connu. Le travail couvre une large panoplie de méthodes utiles en géographie urbaine. Toutefois, il est toujours nécessaire de développer plus loin ces méthodes et en même temps, elles doivent trouver leur chemin dans la vie quotidienne des urbanistes et planificateurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les laves torrentielles sont l'un des vecteurs majeurs de sédiments en milieu montagneux. Leur comportement hydrogéomorphologique est contrôlé par des facteurs géologique, géomorphologique, topographique, hydrologique, climatique et anthropique. Si, en Europe, la recherche s'est plus focalisée sur les aspects hydrologiques que géomorphologiques de ces phénomènes, l'identification des volumes de sédiments potentiellement mobilisables au sein de petits systèmes torrentiels et des processus responsables de leur transfert est d'une importance très grande en termes d'aménagement du territoire et de gestion des dangers naturels. De plus, une corrélation entre des événements pluviométriques et l'occurrence de laves torrentielles n'est pas toujours établie et de nombreux événements torrentiels semblent se déclencher lorsqu'un seuil géomorphologique intrinsèque (degré de remplissage du chenal) au cours d'eau est atteint.Une méthodologie pragmatique a été développée pour cartographier les stocks sédimentaires constituant une source de matériaux pour les laves torrentielles, comme outil préliminaire à la quantification des volumes transportés par ces phénomènes. La méthode s'appuie sur des données dérivées directement d'analyses en environnement SIG réalisées sur des modèles numériques d'altitude de haute précision, de mesures de terrain et d'interprétation de photographies aériennes. La méthode a été conçue pour évaluer la dynamique des transferts sédimentaires, en prenant en compte le rôle des différents réservoirs sédimentaires, par l'application du concept de cascade sédimentaire sous un angle cartographique.Les processus de transferts sédimentaires ont été étudiés dans deux bassins versants des Alpes suisses (torrent du Bruchi, à Blatten beiNaters et torrent du Meretschibach, à Agarn). La cartographie géomorphologique a été couplée avec des mesures complémentaires permettant d'estimer les flux sédimentaires et les taux d'érosion (traçages de peinture, piquets de dénudation et utilisation du LiDAR terrestre). La méthode proposée se révèle innovatrice en comparaison avec la plupart des systèmes de légendes géomorphologiques existants, qui ne sont souvent pas adaptés pour cartographier de manière satisfaisante les systèmes géomorphologiques complexes et actifs que sont les bassins torrentiels. L'intérêt de cette méthode est qu'elle permet l'établissement d'une cascade sédimentaire, mais uniquement pour des systèmes où l'occurrence d'une lave torrentielle est contrôlé par le degré de remplissage en matériaux du chenal. Par ailleurs, le produit cartographique ne peut être directement utilisé pour la création de cartes de dangers - axées sur les zones de dépôt - mais revêt un intérêt pour la mise en place de mesures de correction et pour l'installation de systèmes de monitoring ou d'alerte.La deuxième partie de ce travail de recherche est consacrée à la cartographie géomorphologique. Une analyse a porté sur un échantillon de 146 cartes ou systèmes de légende datant des années 1950 à 2009 et réalisés dans plus de 40 pays. Cette analyse a permis de mettre en évidence la diversité des applications et des techniques d'élaboration des cartes géomorphologiques. - Debris flows are one of the most important vectors of sediment transfer in mountainous areas. Their hydro-geomorphological behaviour is conditioned by geological, geomorphological, topographical, hydrological, climatic and anthropic factors. European research in torrential systems has focused more on hydrological processes than on geomorphological processes acting as debris flow triggers. Nevertheless, the identification of sediment volumes that have the potential to be mobilised in small torrential systems, as well as the recognition of processes responsible for their mobilisation and transfer within the torrential system, are important in terms of land-use planning and natural hazard management. Moreover, a correlation between rainfall and debris flow occurrence is not always established and a number of debris flows seems to occur when a poorly understood geomorphological threshold is reached.A pragmatic methodology has been developed for mapping sediment storages that may constitute source zone of bed load transport and debris flows as a preliminary tool before quantifying their volumes. It is based on data directly derived from GIS analysis using high resolution DEM's, field measurements and aerial photograph interpretations. It has been conceived to estimate sediment transfer dynamics, taking into account the role of different sediment stores in the torrential system applying the concept of "sediment cascade" in a cartographic point of view.Sediment transfer processes were investigated in two small catchments in the Swiss Alps (Bruchi torrent, Blatten bei Naters and Meretschibach torrent, Agarn). Thorough field geomorphological mapping coupled with complementary measurements were conducted to estimate sediment fluxes and denudation rates, using various methods (reference coloured lines, wooden markers and terrestrial LiDAR). The proposed geomorphological mapping methodology is quite innovative in comparison with most legend systems that are not adequate for mapping active and complex geomorphological systems such as debris flow catchments. The interest of this mapping method is that it allows the concept of sediment cascade to be spatially implemented but only for supply-limited systems. The map cannot be used directly for the creation of hazard maps, focused on the deposition areas, but for the design of correction measures and the implementation of monitoring and warning systems.The second part of this work focuses on geomorphological mapping. An analysis of a sample of 146 (extracts of) maps or legend systems dating from the middle of the 20th century to 2009 - realised in more than 40 different countries - was carried out. Even if this study is not exhaustive, it shows a clear renewed interest for the discipline worldwide. It highlights the diversity of applications, techniques (scale, colours and symbology) used for their conception.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary Ecotones are sensitive to change because they contain high numbers of species living at the margin of their environmental tolerance. This is equally true of tree-lines, which are determined by attitudinal or latitudinal temperature gradients. In the current context of climate change, they are expected to undergo modifications in position, tree biomass and possibly species composition. Attitudinal and latitudinal tree-lines differ mainly in the steepness of the underlying temperature gradient: distances are larger at latitudinal tree-lines, which could have an impact on the ability of tree species to migrate in response to climate change. Aside from temperature, tree-lines are also affected on a more local level by pressure from human activities. These are also changing as a consequence of modifications in our societies and may interact with the effects of climate change. Forest dynamics models are often used for climate change simulations because of their mechanistic processes. The spatially-explicit model TreeMig was used as a base to develop a model specifically tuned for the northern European and Alpine tree-line ecotones. For the latter, a module for land-use change processes was also added. The temperature response parameters for the species in the model were first calibrated by means of tree-ring data from various species and sites at both tree-lines. This improved the growth response function in the model, but also lead to the conclusion that regeneration is probably more important than growth for controlling tree-line position and species' distributions. The second step was to implement the module for abandonment of agricultural land in the Alps, based on an existing spatial statistical model. The sensitivity of its most important variables was tested and the model's performance compared to other modelling approaches. The probability that agricultural land would be abandoned was strongly influenced by the distance from the nearest forest and the slope, bath of which are proxies for cultivation costs. When applied to a case study area, the resulting model, named TreeMig-LAb, gave the most realistic results. These were consistent with observed consequences of land-abandonment such as the expansion of the existing forest and closing up of gaps. This new model was then applied in two case study areas, one in the Swiss Alps and one in Finnish Lapland, under a variety of climate change scenarios. These were based on forecasts of temperature change over the next century by the IPCC and the HadCM3 climate model (ΔT: +1.3, +3.5 and +5.6 °C) and included a post-change stabilisation period of 300 years. The results showed radical disruptions at both tree-lines. With the most conservative climate change scenario, species' distributions simply shifted, but it took several centuries reach a new equilibrium. With the more extreme scenarios, some species disappeared from our study areas (e.g. Pinus cembra in the Alps) or dwindled to very low numbers, as they ran out of land into which they could migrate. The most striking result was the lag in the response of most species, independently from the climate change scenario or tree-line type considered. Finally, a statistical model of the effect of reindeer (Rangifer tarandus) browsing on the growth of Pinus sylvestris was developed, as a first step towards implementing human impacts at the boreal tree-line. The expected effect was an indirect one, as reindeer deplete the ground lichen cover, thought to protect the trees against adverse climate conditions. The model showed a small but significant effect of browsing, but as the link with the underlying climate variables was unclear and the model was not spatial, it was not usable as such. Developing the TreeMig-LAb model allowed to: a) establish a method for deriving species' parameters for the growth equation from tree-rings, b) highlight the importance of regeneration in determining tree-line position and species' distributions and c) improve the integration of social sciences into landscape modelling. Applying the model at the Alpine and northern European tree-lines under different climate change scenarios showed that with most forecasted levels of temperature increase, tree-lines would suffer major disruptions, with shifts in distributions and potential extinction of some tree-line species. However, these responses showed strong lags, so these effects would not become apparent before decades and could take centuries to stabilise. Résumé Les écotones son sensibles au changement en raison du nombre élevé d'espèces qui y vivent à la limite de leur tolérance environnementale. Ceci s'applique également aux limites des arbres définies par les gradients de température altitudinaux et latitudinaux. Dans le contexte actuel de changement climatique, on s'attend à ce qu'elles subissent des modifications de leur position, de la biomasse des arbres et éventuellement des essences qui les composent. Les limites altitudinales et latitudinales diffèrent essentiellement au niveau de la pente des gradients de température qui les sous-tendent les distance sont plus grandes pour les limites latitudinales, ce qui pourrait avoir un impact sur la capacité des espèces à migrer en réponse au changement climatique. En sus de la température, la limite des arbres est aussi influencée à un niveau plus local par les pressions dues aux activités humaines. Celles-ci sont aussi en mutation suite aux changements dans nos sociétés et peuvent interagir avec les effets du changement climatique. Les modèles de dynamique forestière sont souvent utilisés pour simuler les effets du changement climatique, car ils sont basés sur la modélisation de processus. Le modèle spatialement explicite TreeMig a été utilisé comme base pour développer un modèle spécialement adapté pour la limite des arbres en Europe du Nord et dans les Alpes. Pour cette dernière, un module servant à simuler des changements d'utilisation du sol a également été ajouté. Tout d'abord, les paramètres de la courbe de réponse à la température pour les espèces inclues dans le modèle ont été calibrées au moyen de données dendrochronologiques pour diverses espèces et divers sites des deux écotones. Ceci a permis d'améliorer la courbe de croissance du modèle, mais a également permis de conclure que la régénération est probablement plus déterminante que la croissance en ce qui concerne la position de la limite des arbres et la distribution des espèces. La seconde étape consistait à implémenter le module d'abandon du terrain agricole dans les Alpes, basé sur un modèle statistique spatial existant. La sensibilité des variables les plus importantes du modèle a été testée et la performance de ce dernier comparée à d'autres approches de modélisation. La probabilité qu'un terrain soit abandonné était fortement influencée par la distance à la forêt la plus proche et par la pente, qui sont tous deux des substituts pour les coûts liés à la mise en culture. Lors de l'application en situation réelle, le nouveau modèle, baptisé TreeMig-LAb, a donné les résultats les plus réalistes. Ceux-ci étaient comparables aux conséquences déjà observées de l'abandon de terrains agricoles, telles que l'expansion des forêts existantes et la fermeture des clairières. Ce nouveau modèle a ensuite été mis en application dans deux zones d'étude, l'une dans les Alpes suisses et l'autre en Laponie finlandaise, avec divers scénarios de changement climatique. Ces derniers étaient basés sur les prévisions de changement de température pour le siècle prochain établies par l'IPCC et le modèle climatique HadCM3 (ΔT: +1.3, +3.5 et +5.6 °C) et comprenaient une période de stabilisation post-changement climatique de 300 ans. Les résultats ont montré des perturbations majeures dans les deux types de limites de arbres. Avec le scénario de changement climatique le moins extrême, les distributions respectives des espèces ont subi un simple glissement, mais il a fallu plusieurs siècles pour qu'elles atteignent un nouvel équilibre. Avec les autres scénarios, certaines espèces ont disparu de la zone d'étude (p. ex. Pinus cembra dans les Alpes) ou ont vu leur population diminuer parce qu'il n'y avait plus assez de terrains disponibles dans lesquels elles puissent migrer. Le résultat le plus frappant a été le temps de latence dans la réponse de la plupart des espèces, indépendamment du scénario de changement climatique utilisé ou du type de limite des arbres. Finalement, un modèle statistique de l'effet de l'abroutissement par les rennes (Rangifer tarandus) sur la croissance de Pinus sylvestris a été développé, comme première étape en vue de l'implémentation des impacts humains sur la limite boréale des arbres. L'effet attendu était indirect, puisque les rennes réduisent la couverture de lichen sur le sol, dont on attend un effet protecteur contre les rigueurs climatiques. Le modèle a mis en évidence un effet modeste mais significatif, mais étant donné que le lien avec les variables climatiques sous jacentes était peu clair et que le modèle n'était pas appliqué dans l'espace, il n'était pas utilisable tel quel. Le développement du modèle TreeMig-LAb a permis : a) d'établir une méthode pour déduire les paramètres spécifiques de l'équation de croissance ä partir de données dendrochronologiques, b) de mettre en évidence l'importance de la régénération dans la position de la limite des arbres et la distribution des espèces et c) d'améliorer l'intégration des sciences sociales dans les modèles de paysage. L'application du modèle aux limites alpines et nord-européennes des arbres sous différents scénarios de changement climatique a montré qu'avec la plupart des niveaux d'augmentation de température prévus, la limite des arbres subirait des perturbations majeures, avec des glissements d'aires de répartition et l'extinction potentielle de certaines espèces. Cependant, ces réponses ont montré des temps de latence importants, si bien que ces effets ne seraient pas visibles avant des décennies et pourraient mettre plusieurs siècles à se stabiliser.